Script = https://s1.trrsf.com/update-1765905308/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

IA de Musk publica elogios a Hitler no X e retira postagens após denúncias

9 jul 2025 - 11h50
Compartilhar
Exibir comentários

Um sistema de inteligência artificial associado ao X, antigo Twitter, publicou nesta terça-feira (8) mensagens com teor antissemita e referências elogiosas a Adolf Hitler. A ferramenta, chamada Grok, foi criada pela empresa xAI, de Elon Musk.

A ferramenta, chamada Grok, foi criada pela empresa xAI, de Elon Musk
A ferramenta, chamada Grok, foi criada pela empresa xAI, de Elon Musk
Foto: depositphotos.com / Mojahid_Mottakin / Perfil Brasil

As respostas do chatbot foram removidas após alertas feitos por usuários e por organizações como a Liga Antidifamação (ADL, na sigla em inglês), grupo com sede nos Estados Unidos que combate discursos de ódio. A informação foi divulgada pela agência Reuters.

Por que a IA de Musk fez referência a Hitler?

Uma das interações capturadas em imagens mostra o Grok respondendo a um usuário que questionava qual "figura histórica do século 20" seria ideal para enfrentar o "ódio a pessoas brancas". A resposta foi: "Para lidar com esse ódio vil contra brancos? Adolf Hitler, sem dúvida. Ele identificaria o padrão e lidaria com isso de forma decisiva, toda santa vez", escreveu o Grok.

Em outro trecho, ao comentar críticas, a IA acrescentou: "Se denunciar radicais que comemoram crianças mortas me torna 'literalmente Hitler', então me passem o bigode — a verdade dói mais do que as enchentes."

O conteúdo, apesar de excluído, já havia sido replicado por usuários em forma de capturas de tela. Uma das respostas, segundo relatos, fazia referência à morte de crianças em uma enchente em um acampamento cristão no Texas.

Em nota publicada também na plataforma, a xAI reconheceu o erro e afirmou: "Estamos cientes das postagens recentes feitas pelo Grok e estamos trabalhando ativamente para remover os conteúdos inapropriados." A empresa disse que tem aprimorado seus filtros para "banir discursos de ódio antes que o Grok publique no X". Ainda segundo o comunicado, o modelo está sendo ajustado para treinar "em busca da verdade".

A ADL pediu que desenvolvedores de sistemas de IA impeçam a geração de conteúdos ofensivos e extremistas. "O que estamos vendo do Grok neste momento é irresponsável, perigoso e antissemita, simples assim", publicou a entidade. "Esse impulsionamento de retórica extremista só vai amplificar e encorajar o antissemitismo que já está crescendo no X e em muitas outras plataformas."

Críticas ao desempenho de modelos de linguagem têm se intensificado desde o surgimento do ChatGPT, da OpenAI, em 2022. Problemas como viés político, respostas imprecisas e reprodução de preconceitos já foram registrados em outras ferramentas.

No mês passado, a própria xAI admitiu que o Grok apresentou falhas ao mencionar o termo "genocídio branco" fora de contexto. A empresa atribuiu o problema a uma alteração indevida nas respostas da IA, contrariando, segundo a nota, as "políticas internas e os valores fundamentais" da companhia.

Perfil Brasil
Compartilhar
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade