A internet não é considerada um território de ninguém à toa. Uma simples foto publicada nas redes sociais pode se tornar material para prática de violência digital em poucos cliques. É exatamente isso que vem acontecendo no X, o antigo Twitter, onde usuários passaram a utilizar o Grok, um assistente de inteligência artificial integrado à plataforma, para gerar imagens íntimas falsas de pessoas reais, sem nenhum consentimento. Em resposta ao crescimento desse tipo de abuso, autoridades brasileiras, como a Autoridade Nacional de Proteção de Dados (ANPD), o Ministério Público Federal (MPF) e a Senacon emitiram recomendações exigindo medidas imediatas da empresa para conter a prática.
O caso envolve o uso da inteligência artificial generativa do Grok para transformar fotos públicas, de mulheres adultas e também de crianças e adolescentes, em imagens sexualizadas, incluindo nudez. A prática levanta alertas sobre vigilância, exploração de dados pessoais, falhas de moderação e o papel das plataformas quando a tecnologia amplia danos em grande escala. No Brasil, as autoridades buscam pela responsabilização, limites da inteligência artificial e a proteção das vítimas diante dessas ferramentas.
Grok está sendo acusado de facilitar a produção de deepnudes no X
O Grok é um sistema de inteligência artificial desenvolvido pela xAI e integrado diretamente ao X. Desde agosto de 2024, com a atualização Grok Imagine, a ferramenta passou a oferecer geração avançada de imagens e vídeos, com níveis...
Matérias relacionadas
Todos os cabos USB-C parecem iguais, mas um chip invisível decide como eles funcionam
Ele parece estranho, mas vicia: minha experiência migrando para o Logitech K860