Possível uso de inteligência artificial em ataques no Oriente Médio levanta questões, diz especialista
O suposto uso de inteligência artificial para selecionar alvos e lançar ataques contra o Irã levanta inúmeras questões, alimentando temores de uma erosão do controle humano sobre a máquina de guerra, de acordo com um especialista em IA.
Peter Asaro, que conduziu pesquisas sobre IA e robótica, disse à AFP que parecia provável que EUA e Israel tivessem usado inteligência artificial para identificar alvos no Irã.
Mas, embora a IA possa "acelerar as coisas", ela também levanta uma série de questões morais e legais, disse o professor da The New School, em Nova York. Com a IA, "você pode preparar rapidamente longas listas de alvos, muito mais rápido do que os humanos", observou Asaro, que preside a ONG Comitê Internacional para o Controle de Armas Robóticas. Ele também preside a campanha "Stop Killer Robots" desde janeiro, uma coalizão global de mais de 250 organizações que luta há anos para impedir o uso de "robôs assassinos" no campo de batalha.
Segundo ele, surge uma questão ética e jurídica central: "Até que ponto os humanos realmente examinam os alvos identificados, verificando sua legalidade e valor militar antes de autorizar um ataque?"
Perda de controle?
O objetivo da IA "é ser capaz de tomar decisões e agir mais rápido que o inimigo", mas "será que ainda temos o controle?", questiona.
Na ONU, discussões estão em andamento em Genebra há cerca de dez anos para desenvolver regulamentações sobre esses sistemas de armas autônomas letais (SAAL), apelidados de "robôs assassinos", mas os países nunca conseguiram chegar a um consenso para iniciar negociações genuínas. Essas discussões continuam, com a esperança de que um acordo seja alcançado ainda este ano.
Embora atualmente não exista um tratado específico sobre IA e armas autônomas, isso não significa que esses sistemas possam operar em um vácuo jurídico: o direito internacional vigente se aplica, incluindo proteções reforçadas para escolas e hospitais.
Falando à margem das discussões na ONU em Genebra, Asaro enfatizou que o cerne do debate diz respeito, em particular, à escolha de alvos e aos receios de perder todo o controle humano real.
Embora o argumento apresentado para o uso de IA em conflitos seja frequentemente o de que "esses sistemas são muito precisos e cometem menos erros do que os humanos", o especialista insistiu que "na verdade, não sabemos como eles funcionam".
Segundo ele, a IA depende de sistemas opacos e classificados, que oferecem pouca informação sobre seu funcionamento e como chegam às suas conclusões. Não há "uma maneira fácil de avaliar o resultado desses sistemas" ou de determinar o que deu errado quando erros são cometidos, disse Asaro.
"Quem é o responsável?"
"Se algo der errado, quem é o responsável?", perguntou ele citando o suposto bombardeio de uma escola na cidade iraniana de Minab, que matou 150 pessoas, muitas delas crianças, segundo as autoridades iranianas. Nem os Estados Unidos nem Israel admitiram ter realizado tal ataque. A AFP não conseguiu acessar o local para verificar de forma independente o número de mortos ou as circunstâncias que envolveram a tragédia.
A AFP determinou que o prédio ficava próximo a dois locais controlados pela Guarda Revolucionária Islâmica. Segundo Asaro, se houve um erro, encontrar a causa está longe de ser simples. "Eles não diferenciaram a escola da base militar como deveriam ter feito (...) mas quem são 'eles'?", questionou. "Humanos ou uma máquina?"
Se a IA foi usada, a questão fundamental, segundo ele, é "qual a época dos dados" utilizados e se foi um "erro de banco de dados". O alvo também pode ter sido identificado corretamente, mas pode simplesmente ter faltado precisão no disparo, acrescentou.
Uma hipótese mais preocupante, observou Asaro, seria que "o sistema concluiu que a escola representava uma ameaça".
Com AFP