Script = https://s1.trrsf.com/update-1765905308/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Práticas de segurança de empresas de IA não atendem a padrões globais, diz estudo

3 dez 2025 - 11h01
Compartilhar
Exibir comentários

As práticas de segurança das principais empresas de inteligência artificial, como Anthropic, OpenAI, xAI e Meta, estão "muito aquém dos padrões globais emergentes", de acordo com uma nova edição do índice de segurança de IA do Future of Life Institute, divulgada nesta quarta-feira.

O instituto afirmou que a avaliação de segurança, conduzida por um painel independente de especialistas, constatou que, embora as empresas estivessem ocupadas em uma corrida para desenvolver a superinteligência, nenhuma possuía uma estratégia robusta para controlar sistemas tão avançados.

O estudo surge em meio a uma crescente preocupação pública sobre o impacto social de sistemas mais inteligentes que os humanos, capazes de raciocínio e pensamento lógico, após diversos casos de suicídio e automutilação terem sido associados a chatbots de IA. Chatbots são programas projetados para conversar com pessoas por texto ou voz, simulando um diálogo humano.

"Apesar da recente polêmica sobre ataques cibernéticos com inteligência artificial e sobre a IA levando pessoas à psicose e à automutilação, as empresas de IA dos EUA continuam menos regulamentadas do que restaurantes e seguem fazendo lobby contra padrões de segurança obrigatórios", disse Max Tegmark, professor do MIT e presidente do Future of Life.

A corrida pela inteligência artificial também não mostra sinais de desaceleração, com as principais empresas de tecnologia investindo centenas de bilhões de dólares na atualização e expansão de seus esforços em aprendizado de máquina.

O Future of Life Institute é uma organização sem fins lucrativos que tem levantado preocupações sobre os riscos que as máquinas inteligentes representam para a humanidade. Fundado em 2014, recebeu apoio inicial do bilionário Elon Musk, da Tesla.

Em outubro, um grupo que incluía os cientistas Geoffrey Hinton e Yoshua Bengio pediu a proibição do desenvolvimento de inteligência artificial superinteligente até que a ciência encontre um caminho seguro para o futuro.

A xAI afirmou que "a mídia tradicional mente", em uma resposta que pareceu ser automatizada, enquanto Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek e Alibaba Cloud não responderam imediatamente ao pedido de comentários sobre o estudo.

Reuters Reuters - Esta publicação inclusive informação e dados são de propriedade intelectual de Reuters. Fica expresamente proibido seu uso ou de seu nome sem a prévia autorização de Reuters. Todos os direitos reservados.
Compartilhar
TAGS
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade