A disputa pública entre o Departamento de Defesa dos EUA (também conhecido atualmente como Departamento de Guerra) e seu fornecedor de tecnologia de IA, a Anthropic, está colocando o poder do Estado contra o poder corporativo. Isso é algo incomum. No mercado de desenvolvimento e aquisições de tecnologia militar, governo e corporações são geralmente companheiros de cama confortáveis.
A origem desse desentendimento remonta a meses atrás, em meio a repetidas críticas do "czar" de criptografia de Donald Trump, David Sacks, sobre as posições políticas supostamente acordadas da empresa.
Mas as tensões aumentaram após relatos da mídia de que a tecnologia Anthropic havia sido usada no violento sequestro do ex-presidente venezuelano Nicolás Maduro pelos militares dos EUA em janeiro de 2026. Alegou-se que isso causou descontentamento dentro da empresa sediada em São Francisco.
A Anthropic negou o fato, com pessoas de dentro da empresa sugerindo que ela não encontrou ou levantou quaisquer violações de suas políticas na sequência da operação de Maduro.
No entanto, o secretário de defesa dos EUA, Pete Hegseth, deu um ultimato à Anthropic, e sugeriu que poderia invocar a Lei de Produção de Defesa de 1950. Isso permitiria que o Departamento de Defesa se apropriasse do uso dessa tecnologia como desejasse. Ao mesmo tempo, segundo Hegseth, a Anthropic poderia ser considerada uma ameaça para a cadeia de suprimentos, colocando em risco seus contratos com o governo.
Essas medidas extraordinárias podem parecer contraditórias, mas são consistentes com a abordagem do atual governo dos EUA, que favorece grandes gestos e ambiguidade política. Tanto isso é verdade que, dias após tais ameaças, as Forças Armadas estadunidenses voltaram a usar os recursos de IA da Anthropic nos ataques ao Irã, como se nada tiveesse acontecido.
No centro dessa disputa está a questão de como o modelo de linguagem grande (LLM) da Anthropic, o Claude, é usado em um contexto militar. Em muitos setores da indústria, o Claude realiza uma série de tarefas automatizadas, incluindo escrita, codificação, raciocínio e análise.
Em julho de 2024, a empresa americana de análise de dados Palantir anunciou que estava fazendo uma parceria com a Anthropic para "trazer os modelos de IA do Claude … para as operações de inteligência e defesa do governo dos EUA". A Anthropic então assinou um contrato de US$ 200 milhões (£ 150 milhões) com o DoD em julho de 2025, estipulando certos termos por meio de sua "política de uso aceitável".
Esses termos, por exemplo, não permitiriam o uso do Claude na vigilância em massa de cidadãos dos EUA ou em sistemas de armas totalmente autônomos que, uma vez ativados, podem selecionar e atacar alvos sem envolvimento humano.
De acordo com a Anthropic, ambos violariam sua definição de "IA responsável". Hegseth e o DoD recuaram, caracterizando esses limites como indevidamente restritivos em um ambiente geopolítico marcado por incertezas, instabilidade e linhas pouco nítidas.
Eles insistem que a IA responsável deve abranger "qualquer uso legal" de modelos de IA pelos militares dos EUA. Um memorando emitido por Hegseth em 9 de janeiro de 2026 afirmava:
A diversidade, a equidade e a inclusão e a ideologia social não têm lugar no Departamento de Guerra, portanto não devemos empregar modelos de IA que incorporem "ajustes" ideológicos que interfiram em sua capacidade de fornecer respostas objetivamente verdadeiras às solicitações do usuário.
O memorando instruía que o termo "qualquer uso legal" deveria ser incorporado aos futuros contratos do DoD para serviços de IA em um prazo de 180 dias.
Os concorrentes da Anthropic estão se alinhando
As linhas vermelhas da Anthropic não excluem a vigilância em massa das comunidades humanas em geral - apenas dos cidadãos americanos. E, embora ela se limite a armas totalmente autônomas, a multiplicidade de usos em evolução da IA para informar, acelerar ou ampliar a violência de forma a limitar severamente as oportunidades de restrição moral não é mencionada em sua política de uso aceitável.
No momento, a Anthropic tem uma vantagem competitiva. Seu modelo de LLM está integrado às interfaces do governo dos EUA com níveis suficientes de autorização para oferecer um produto superior. Mas os concorrentes da Anthropic estão se alinhando.
A Palantir expandiu significativamente seus negócios com o Pentágono nos últimos meses, dando origem a mais modelos de IA.
Enquanto isso, o Google recentemente atualizou suas diretrizes éticas, abandonando sua promessa de não usar IA para desenvolvimento de armas e vigilância. A OpenAI também modificou sua declaração de missão, removendo a "segurança" como um valor central, e a xAI de Elon Musk (criadora do chatbot Grok) concordou com o padrão de "qualquer uso legal" do Pentágono.
Um ponto de teste para a IA militar
Para C.S. Lewis, a coragem era a virtude principal, pois ela representa "a forma de toda virtude no ponto de teste". A Anthropic agora enfrenta esse ponto de teste.
Em 24 de fevereiro, a empresa anunciou a última atualização de sua política de escalonamento responsável - "a estrutura voluntária que usamos para mitigar os riscos catastróficos dos sistemas de IA". De acordo com a revista Time, as mudanças incluem "a eliminação da promessa de não liberar modelos de IA se a Anthropic não puder garantir antecipadamente as devidas mitigações de risco".
O diretor de ciências da Anthropic, Jared Kaplan, disse à Time: "Não achamos que, com o rápido avanço da IA, fizesse sentido assumirmos compromissos unilaterais (…) se os concorrentes estiverem avançando a todo vapor".
A linguagem ética satura os comunicados à imprensa das empresas do Vale do Silício ansiosas para se distinguir dos "maus atores" na Rússia, na China e em outros lugares. No entanto, palavras e ações éticas não são a mesma coisa, porque as últimas geralmente acarretam um custo no mundo real.
Talvez não seja por acaso que um espetáculo tão público esteja acontecendo neste momento. No início de fevereiro, representantes de muitos países - mas não dos EUA - se reuniram pela terceira vez para encontrar maneiras de chegar a um acordo sobre "IA responsável" no domínio militar. E de 2 a 6 de março, a ONU convocará sua última conferência para discutir a melhor forma de limitar o uso de tecnologias emergentes para sistemas de armas autônomas letais.
Esses debates legais e éticos sobre o papel da tecnologia de IA no futuro da guerra são fundamentais e já deveriam ter ocorrido. A Anthropic merece crédito por aparentemente resistir aos esforços das forças armadas dos EUA para minar suas diretrizes éticas. Mas é provável que o papel da IA seja testado em muitas outras situações de conflito antes que se chegue a um acordo.
Os autores não prestam consultoria, trabalham, possuem ações ou recebem financiamento de qualquer empresa ou organização que se beneficiaria deste artigo e não revelaram qualquer vínculo relevante além de seus cargos acadêmicos.