Caso Grok revela urgência de leis sobre regulamentação das IAs
Para especialista, o escândalo que ocorreu em janeiro só escancarou um problema já existente
IA: Inimiga das mulheres?
O X (antigo Twitter) mergulhou em verdadeiro caos ao longo de janeiro, depois que a rede social implementou a possibilidade de gerar e adulterar imagens por meio do Grok, sua inteligência artificial. O que começou como algo útil e divertido rapidamente se transformou em um escândalo após a ferramenta produzir deepfakes (imagens falsas) de mulheres e crianças com pouca roupa ou em poses sensuais, sem qualquer autorização, a partir de solicitações dos usuários.
Segundo uma pesquisa conduzida pelo Center for Countering Digital Hate (CCDH), o Grok teria gerado cerca de 3 milhões de imagens sexualizadas ou vexatórias. Sendo que a esmagadora maioria das vítimas foram mulheres e crianças. Ainda em janeiro, o X divulgou um comunicado alegando ter implementado medidas de segurança. Porém, diversos usuários seguiram denunciando a presença de conteúdo impróprio na plataforma.
Em resposta, a Malásia e a Indonésia bloquearam o acesso à rede social em seus territórios. No Reino Unido e na França, o caso virou assunto de polícia: a autoridade britânica de proteção de dados anunciou, no início de fevereiro, a abertura de uma investigação formal, enquanto o Ministério Público francês realizou busca e apreensão nos escritórios do X em Paris, sob acusação de disseminação de pornografia infantil. No Brasil, o Ministério Público também foi acionado pela deputada Erika Hilton, que argumentou que a plataforma "produziu deepfakes sexualizadas, eróticas e com conotação pornográfica de mulheres e de crianças e adolescentes reais, sem consentimento algum dessas usuárias."
Mudanças são urgentes
A advogada especialista em direito digital, educação e infância, Alessandra Borelli, define o episódio como "o empurrão que faltava" para escancarar o problema da má regulamentação das IAs. "Evidenciou que modelos generativos podem ser usados para criar conteúdos sexualizados ilícitos com extrema facilidade, inclusive envolvendo pessoas reais. Isso reforça para o legislador a importância do dever de prevenção na arquitetura do sistema, a responsabilidade de quem desenvolve e opera a IA e o risco sistêmico quando não há salvaguardas técnicas eficazes", destaca.
Nossa legislação já oferece mecanismos importantes para defender as vítimas, embora não visasse originalmente à pornografia sintética gerada por inteligência artificial. "Hoje, esses casos podem ser enfrentados a partir de um conjunto normativo já existente, que inclui o Código Penal, a Lei Geral de Proteção de Dados, o Estatuto da Criança e do Adolescente e o Marco Civil da Internet, permitindo responsabilização civil, administrativa e, em determinadas hipóteses, criminal", explica a especialista. Ela também destaca o avanço legislativo com a Lei nº 15.123/2025, que alterou o Código Penal para agravar a pena no crime de violência psicológica contra a mulher quando houver uso de inteligência artificial ou outros recursos tecnológicos para adulterar imagem ou som da vítima. "Esse movimento é importante porque reconhece, de forma expressa, que o uso de IA potencializa o dano e a gravidade dessas condutas."
Fui vítima, e agora?
Você pode (e deve) ir atrás dos seus direitos. Alessandra orienta que é essencial manter a calma e agir de forma estratégica. "Antes de qualquer pedido de remoção, é fundamental preservar todas as provas disponíveis (prints, links, datas, horários e qualquer informação que ajude a demonstrar a existência e a circulação do conteúdo). Em seguida, vale registrar um Boletim de Ocorrência e procurar um advogado com experiência em direito digital, porque a estratégia inicial faz muita diferença. A partir daí, é possível notificar plataformas e provedores e avaliar, com critério, as medidas judiciais e administrativas cabíveis."
Em geral, esse caminho passa por uma notificação extrajudicial imediata, bem fundamentada, acionando os mecanismos do Marco Civil da Internet para remoção célere, além da Lei Geral de Proteção de Dados, já que se trata de um caso de tratamento ilícito de dado pessoal, muitas vezes sensível. "Hoje, existem ferramentas jurídicas eficazes para buscar a remoção desse tipo de conteúdo, mas o resultado depende muito da estratégia adotada logo no início. Em situações mais graves ou quando a resposta da plataforma não vem, é possível recorrer ao Judiciário com pedido de tutela de urgência", pontua.
Internet não é terra sem lei
Ao contrário do que muitos ainda pensam, é possível identificar os autores desse tipo de crime por meio da judicialização. Nas palavras de Alessandra: "O anonimato no ambiente digital não é absoluto. Com ordem judicial, é viável buscar informações como endereços IP, registros de acesso, logs e dados técnicos que permitam identificar o responsável. Dependendo do caso, também é possível discutir a cadeia de responsabilidade, que pode envolver não só o usuário. Também, a plataforma, especialmente quando há falhas de controle, moderação ou design inseguro."
Infelizmente, não há nada que possamos fazer que garanta proteção total contra esse tipo de crime, mas optar por perfis fechados e excluir as contas nas redes sociais cuja proteção se mostrou insatisfatória pode ajudar. "Diminuir a quantidade de imagens pessoais em perfis públicos já faz diferença. Assim como evitar fotos facilmente manipuláveis, como aquelas em alta resolução, com rosto frontal bem definido ou fundos muito neutros. Não elimina o risco, mas ajuda a não facilitar o dano", aconselha Alessandra.
Não podemos viver à mercê das plataformas
A legislação brasileira tem melhorado gradualmente quando o assunto é crime digital. De um lado, já está em discussão o PL nº 2.338/2023, que trata do Marco Regulatório da Inteligência Artificial. De outro, há leis recentes que ampliaram punições para práticas como a sextorsão, além da consolidação do ECA Digital, que reforça deveres de proteção de crianças e adolescentes no ambiente online. Porém, a advogada destaca que essa precisa ser uma luta de todos: "A regulação surge a partir de pressão social qualificada. Na prática, isso passa por participar de consultas públicas, apoiar notas técnicas e posicionamentos institucionais, levar casos reais ao debate público com responsabilidade, atuar junto a associações, conselhos e frentes parlamentares e cobrar das plataformas posturas mais responsáveis e transparentes."
Deepfakes pornográficos violam gravemente direitos da personalidade — imagem, honra, reputação e privacidade — e precisam ser reconhecidos como tal. "Na prática, a pessoa pode sofrer danos morais, materiais, reputacionais e psicológicos, mesmo sem nunca ter produzido ou autorizado qualquer conteúdo íntimo. E quando envolve crianças e adolescentes, o risco é ainda maior", alerta Alessandra, que conclui: "Leis mais rápidas e melhores não vêm apenas do Legislativo, mas de uma sociedade que sabe o que está pedindo e por quê."