Drone autômato atacou soldados em conflito na Líbia

O secretário-geral da ONU, Antonio Guterres, convocou os países membros a estabelecerem um plano que imponha “restrições ao uso de certos tipos de armas autônomas” – os assim chamados robôs militares assassinos -, no início da Conferência de Revisão, em curso em Genebra.

A declaração vem após relatório do organismo internacional alertar que já ocorreu em março do ano passado, na Líbia, o primeiro ataque de drones autônomos militares contra humanos da história. Embora não se saiba se o Sistema de Armas Autônomas Letais (SAAL) – no caso, um drone de fabricação turca – matou alguém, mas demarcou um grave momento no desenvolvimento da guerra, em que autômatos, com base em Inteligência Artificial, recursos de vídeo e dispositivos bélicos possam de forma autônoma fazer humanos de alvo, o que até há pouco só se via em filmes de ficção científica.

“Eu encorajo a Conferência de Revisão a chegar a um acordo sobre um plano ambicioso para o futuro para estabelecer restrições ao uso de certos tipos de armas autônomas”, disse Guterres.

Os negociadores da ONU têm discutido sobre as ‘SAAL’ nos últimos oito anos, com Guterres esperando fazer progressos em cinco dias de negociações.

Atualmente, 125 partes assinaram a Convenção das Nações Unidas sobre Certas Armas Convencionais, incluindo os EUA, China e Israel. No entanto, alguns signatários desejam expandi-la para cobrir a proibição total dos robôs militares assassinos. Há anos Washington vem se opondo a uma moratória global dos sistemas letais automatizados.

“O ritmo da tecnologia está realmente começando a ultrapassar o ritmo das negociações diplomáticas”, afirmou Clare Conboy, da organização Stop Killer Robots [Pare os Robôs Assassinos], acrescentando que as negociações representam “uma oportunidade histórica para os Estados tomarem medidas para salvaguardar a humanidade”.

Entidades de defesa dos direitos advertem que, se não parada, haverá uma corrida armamentista em direção aos dispositivos assassinos automatizados e autônomos, o que chamam de “desumanização digital”.

“O surgimento de sistemas de armas autônomos e a perspectiva de perder o controle humano significativo sobre o uso da força são ameaças graves que exigem ação urgente”, advertiram em relatório conjunto a Human Rights Watch e a Harvard Law School International Human Rights Clinic, divulgado antes da reunião da ONU.

Seria difícil, senão impossível, selecionar e atacar alvos sem controle humano significativo em um campo de batalha dominado por robôs autônomos, alertou Bonnie Docherty, pesquisadora sênior de armas da Human Rights Watch, citando a oposição humana instintiva “à ideia de máquinas que tomam decisões de vida ou morte” – particularmente quanto à incapacidade de discernir entre combatentes e civis.

No entanto, o progresso durante as negociações pode ser retardado devido à oposição dos Estados Unidos, com o presidente Joe Biden se recusando a banir em acordo internacional esses “robôs assassinos”, com Washington alegando preferir um código de conduta “não vinculativo” (isto é, não obrigatório).

Quando ataques com drones, controlados por pessoas à distância, com foi visto na retirada das tropas norte-americanas de Cabul, ou só agora revelado na Síria, acarretaram mortes a rodo de civis, inclusive crianças, imagine-se quando a decisão ficar por conta de um algoritmo de IA.

Como disse o diretor do Instituto de Ética em Inteligência Artificial, John Tasioulas, a recusa do governo Biden em abandonar a adoção da tecnologia assassina é “triste, mas nada surpreendente”.