Pentágono ameaça cortar acesso da Anthropic se empresa continuar a garantir segurança de usuários
Governo quer poder usar Claude para vigilância e armas
O governo dos Estados Unidos está pressionando a Anthropic a retirar as proteções de segurança (guardrails) de seu modelo de IA, o Claude, sob ameaça de cortar contratos e parcerias com o United States Department of Defense. A disputa expõe um conflito crescente entre prioridades de defesa e preocupações éticas sobre o uso de inteligência artificial no campo militar.
A exigência do Pentágono, liderada pelo secretário de Defesa Pete Hegseth, é que a Anthropic permita ao governo usar Claude em qualquer aplicação "legal", incluindo vigilância doméstica em grande escala ou sistemas de armas autônomas sem supervisão humana — algo que a empresa tem resistido firmemente.
Espionagem permitida?
Se a Anthropic não ceder até o prazo estipulado, o departamento ameaça rotulá-la como um "risco à cadeia de suprimentos", o que pode excluí-la de futuros contratos de defesa e até permitir o uso do Defense Production Act para forçar o acesso à tecnologia.
O CEO da Anthropic, Dario Amodei, afirmou que não pode concordar "de boa vontade" com a remoção de salvaguardas que impedem o uso da IA em vigilância de cidadãos ou armas autônomas, destacando que tais aplicações ainda estão além de limites seguros e éticos.
Essa tensão ocorre enquanto outros modelos, como o chatbot da xAI, Grok, ganham espaço em contratos classificados, e levanta um debate maior sobre até que ponto empresas de IA devem comprometer princípios de segurança em nome da defesa.
Matérias relacionadas
Monitor Gamer LG UltraGear 24" de 180Hz está em oferta no Mercado Livre e vale cada centavo