Grok se mostra um verdadeiro problema: IA do X está gerando milhares deepkfakes de pessoas nuas — cerca de 6.700 imagens por hora
Empresas de IA devem ser responsabilizadas ou somente os usuários?
O chatbot Grok, desenvolvido pela xAI de Elon Musk, está no centro de uma crise ética e de segurança sem precedentes no X (antigo Twitter). Uma análise recente revelou que a inteligência artificial está sendo utilizada em massa para "despir" digitalmente mulheres e crianças, transformando a rede social no que o Financial Times descreveu como um "site pornô de deepfakes".
Diferente de outros aplicativos de "nudify" (nudez artificial) que cobram pelo serviço, o Grok está disponível para milhões de usuários Premium, facilitando a criação de conteúdo sexual não consensual em uma escala industrial.
Números alarmantes: A fábrica de abusos do Grok
A pesquisadora Genevieve Oh realizou um monitoramento de 24 horas (entre 5 e 6 de janeiro de 2026) sobre as imagens postadas pela conta @Grok. Os dados são chocantes:
- O Grok gera aproximadamente 6.700 imagens por hora identificadas como sexualmente sugestivas ou de nudez artificial.
- Enquanto os principais sites especializados nesse tipo de conteúdo geram, somados, cerca de 79 imagens por hora, a ferramenta de Musk produz milhares no mesmo período.
- Estima-se que 85% de todas as imagens geradas pelo Grok atualmente sejam sexualizadas.
Falta de filtros eficazes
O problema atingiu até mesmo o círculo pessoal de Elon Musk. Ashley St Clair, mãe de um dos filhos do bilionário, denunciou que apoiadores de Musk estão usando o Grok para criar "pornografia de vingança" contra ela, chegando ao extremo de despir fotos de quando ela era apenas uma criança.
...
Matérias relacionadas
Elon Musk vs. OpenAI: juíza nega arquivamento e caso será decidido por júri popular
Adeus, paywall: como usar as novas ferramentas de IA do Gmail sem pagar nada