Thomas Bourdeau, da RFI
A questão central é: como limitar o uso da inteligência artificial em operações militares? A empresa de inteligência artificial Anthropic, responsável pelo assistente conversacional Claude, se recusa a permitir que as Forças Armadas dos Estados Unidos utilizem sua tecnologia sem restrições, sobretudo para vigilância em massa da população ou para a automação de ataques letais. Foi nesse contexto de conflito ético que o porta-voz do Ministério da Defesa da China, Jiang Bin, declarou:
"Levar adiante sem limites a militarização da inteligência artificial, utilizá-la como instrumento para violar a soberania de outras nações, permitir que ela influencie excessivamente decisões de guerra e deixar algoritmos com o poder de vida ou morte sobre seres humanos não apenas mina os princípios éticos e as responsabilidades em tempos de guerra, como também pode provocar uma perda de controle tecnológico."
Em seguida, ele citou o famoso filme de ficção científica norte-americano: "Uma distopia como a retratada em O Exterminador do Futuro pode um dia se tornar realidade."
Lançado em 1984 e estrelado por Arnold Schwarzenegger, O Exterminador do Futuro apresenta um futuro apocalíptico no qual Skynet, uma inteligência artificial responsável pelo sistema de defesa estratégica dos Estados Unidos, se torna superinteligente. Ao temer ser desligada pelos humanos, a máquina desencadeia um holocausto nuclear global em 29 de agosto de 1997, episódio conhecido no filme como Dia do Julgamento, que mata bilhões de pessoas.
A recusa da Anthropic em retirar restrições ao uso de sua IA levantou um debate sobre os limites do emprego da tecnologia em conflitos armados. Depois dessa decisão, o Departamento de Defesa dos Estados Unidos incluiu a empresa em uma lista de companhias consideradas como apresentando "risco para a segurança nacional nas cadeias de fornecimento do Pentágono". A medida obriga prestadores de serviço a interromper imediatamente o uso das ferramentas da empresa, incluindo o assistente de IA generativa Claude, em contratos com o Departamento de Defesa.
Paradoxalmente, a Microsoft alertou em um documento apresentado à Justiça que a aplicação imediata dessas sanções poderia "prejudicar" o funcionamento das Forças Armadas norte-americanas em meio à guerra no Oriente Médio. Segundo a empresa, os modelos de inteligência artificial da Anthropic são, atualmente, os únicos autorizados para o processamento de informações classificadas dentro do Pentágono. De acordo com vários veículos de imprensa, esses sistemas foram utilizados na preparação da ofensiva conduzida por Estados Unidos e Israel contra o Irã.
No mesmo documento, a Microsoft pediu a suspensão temporária das decisões do governo para permitir que as duas partes negociem. "A inteligência artificial não deveria ser usada para vigilância em massa nem para colocar o país em uma situação na qual máquinas autônomas possam iniciar uma guerra por conta própria", afirmou a empresa.
O alerta ecoa as preocupações levantadas pela própria Anthropic, que se opõe ao uso de seus modelos para coletar grandes volumes de dados sobre a população norte-americana ou para automatizar ataques letais. Ao mesmo tempo, a empresa registra crescimento acelerado. Segundo a Anthropic, o número de usuários pagantes do Claude dobrou desde o início do ano. O chatbot também alcançou, pela primeira vez, o topo da lista de aplicativos mais baixados na App Store. A empresa afirma que seu sistema supera um milhão de downloads por dia, considerando as lojas Google Play e App Store.
Spoiler: no enredo de O Exterminador do Futuro, os sobreviventes da catástrofe nuclear travam uma guerra contra as máquinas controladas por Skynet. Os sistemas enviam então um ciborgue assassino, o modelo T-800, de volta a 1984 para matar Sarah Connor, mãe de John Connor, que no futuro se tornaria o líder da resistência humana contra as máquinas.