Restrições contratuais à IA podem ameaçar missões militares, diz autoridade dos EUA

3 mar 2026 - 15h51

Um autoridade de alto escalão do ‌Pentágono disse nesta terça-feira que os contratos comerciais de inteligência artificial assinados durante o governo de Joe Biden continham restrições operacionais abrangentes que ameaçam paralisar as missões militares dos Estados Unidos em tempo real, incluindo a capacidade de planejar e executar operações de combate.

Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia, descreveu ⁠um momento de alarme quando revisou os termos que regem os modelos de ‌IA já incorporados em alguns dos comandos mais sensíveis das Forças Armadas dos EUA. Ele não revelou o nome do fornecedor de IA cujos contratos ‌estava revisando.

Publicidade

Os comentários foram feitos na American Dynamism ‌Summit, em Washington, um encontro de empresas de tecnologia interessadas em trabalhos ⁠relacionados ao espaço e à segurança nacional. A cúpula ocorreu poucos dias após um desacordo sobre como o Pentágono poderia usar as poderosas e amplamente utilizadas ferramentas de IA da Anthropic, levando o presidente Donald Trump a proibir a startup de fazer negócios com o governo norte-americano e classificá-la como um risco ‌à segurança nacional.

"Eu tive um momento de 'nossa, que surpresa'", disse Michael na American Dynamism ‌Summit em Washington. "Há coisas... ⁠você não pode planejar ⁠uma operação... se isso puder levar a impactos cinéticos" ou explosões. Ele descreveu dezenas de ⁠restrições incorporadas aos acordos que cobrem ‌comandos responsáveis por operações aéreas ‌sobre Irã, China e América do Sul.

Michael disse que os contratos foram estruturados de forma que se um operador violar os termos de serviço, o modelo de IA pode, teoricamente, "simplesmente parar no meio de uma operação". O ⁠Claude, da Anthropic, é o único modelo de IA disponível para o Departamento de Defesa dos EUA em seus sistemas confidenciais na época em que Michael conduziu a análise.

Suas preocupações se intensificaram depois que um executivo sênior de uma empresa de IA não identificada levantou ‌questões sobre se seu software havia sido usado no que Michael chamou de uma das operações militares mais bem-sucedidas da história recente. Claude, da Anthropic, ⁠teria sido usado para ajudar a planejar a operação do governo dos EUA que capturou o ex-presidente venezuelano Nicolás Maduro em janeiro.

Publicidade

"O que não vamos fazer é permitir que qualquer empresa dite um novo conjunto de políticas além do que o Congresso aprovou", disse Michael.

As revelações podem ajudar a explicar a disputa entre a Anthropic e o Departamento de Defesa dos EUA. O secretário de Defesa, Pete Hegseth, declarou a empresa um "risco para a cadeia de suprimentos" por se recusar a ceder nas negociações sobre restrições a armas autônomas e vigilância em massa.

Horas depois, a rival OpenAI fechou seu próprio acordo com o Pentágono. Uma declaração do presidente-executivo da OpenAI, Sam Altman, sugeriu que o Departamento havia concordado com restrições semelhantes aos modelos da OpenAI.

Reuters - Esta publicação inclusive informação e dados são de propriedade intelectual de Reuters. Fica expresamente proibido seu uso ou de seu nome sem a prévia autorização de Reuters. Todos os direitos reservados.
TAGS
É fã de ciência e tecnologia? Acompanhe as notícias do Byte!
Ativar notificações