Laboratórios de IA deveriam passar por revisão de segurança para obterem contratos com EUA, diz grupo
O governo dos Estados Unidos deveria examinar os modelos de inteligência artificial de ponta em busca de ameaças à segurança antes de serem divulgados publicamente e cancelar contratos governamentais daqueles que não passarem na análise, disse um grupo de defesa de tecnologia responsável às autoridades norte-americanas nesta segunda-feira.
A Casa Branca está lidando com as implicações do modelo Mythos, da Anthropic, que pode tornar ataques digitais complexos mais fáceis e rápidos de serem executados, representando riscos à segurança nacional.
O grupo Americanos pela Inovação Responsável pediu ao governo de Donald Trump que desenvolva métodos para examinar os próximos modelos de IA de grandes desenvolvedores considerando a capacidade deles em apoiar ataques digitais e de ajudar no desenvolvimento de armas.
As empresas criadoras desses modelos de IA deveriam se sujeitar a testes do governo para terem direito a contratos com o governo, disse o grupo em uma carta.
O Centro para Padrões de IA e Inovação dos EUA (CAISI, na sigla em inglês) já analisa alguns modelos de IA por meio de acordos voluntários com as empresas OpenAI, Anthropic e, mais recentemente, com Google, Microsoft e xAI.
O CAISI deveria assumir a liderança no desenvolvimento de requisitos obrigatórios, e o Congresso dos EUA deveria criar um escritório permanente de fiscalização dentro do Departamento de Comércio dos EUA para fazer cumprir os requisitos, disse o grupo.
Os requisitos propostos se aplicam a empresas que investem US$100 milhões ou mais por ano em computação para treinar modelos de IA ou que geram pelo menos US$500 milhões em receita anual com produtos e serviços de IA.
Comentários
Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Se achar algo que viole os termos de uso, denuncie.