O que fazer caso você tenha fotos sexualizadas no Grok, a IA de Musk? Especialista explica
Para pesquisadora, a regulamentação é o principal caminho para evitar novos casos
A ferramenta Grok, integrada ao X, está sendo criticada por gerar imagens sexualizadas falsas, incluindo de menores, levando a pedidos de regulamentação mais rígida e mudanças culturais para prevenir abusos digitais.
Usuários de internet têm utilizado a ferramenta de inteligência artificial (IA) Grok, integrada à rede social X, para gerar imagens sexualizadas de pessoas reais na plataforma. O chatbot passou a atender pedidos de edição de fotos para deixar pessoas de biquíni, tornar roupas transparentes, entre outras ações.
Receba as principais notícias direto no WhatsApp! Inscreva-se no canal do Terra
O uso indevido da plataforma gerou indignação e medo em usuários. Afinal, sem regulamentação, se tornar vítima de ataques de imagens falsas pode ser cada vez mais comum.
Segundo a pesquisadora de IA, comportamento e ética Laura Hauser, a regulamentação ainda é escassa, e por isso, as vítimas desse tipo de ataque devem se munir de seus direitos.
Caso alguém seja vítima, o ideal é:
- Reunir provas, como capturas de tela e links;
- Notificar a plataforma, que deve investigar a denúncia;
- Fazer um boletim de ocorrência junto à polícia, em casos de sexualização ou conteúdo com nudez;
- Acionar o Ministério Público Federal (MPF);
- Buscar orientação jurídica.
Mesmo com as críticas, a função continua disponível para os usuários. No perfil oficial do Grok, os responsáveis pela ferramenta reconhecem “lapsos nas salvaguardas” que permitiram que fossem criados conteúdos “inadequados, inclusive envolvendo menores”. A ferramenta alega que irá corrigir o problema com urgência e reforça que os conteúdos de abuso infantil são ilegais e proibidos pela plataforma.
Procurada pelo Terra, a rede social X ainda não se manifestou sobre o uso do Grok.
Plataformas deveriam ser mais seguras, avalia especialista
Para Laura Hauser, os recentes casos de vítimas de terem suas fotos captadas para o uso de seus rostos em imagens sexualizadas, criadas pelo Grok, apontam que a vítima não deveria precisar se proteger, mas deveria haver mais segurança nas plataformas, em contraponto.
“A gente deveria ter atitudes, tomar ações para que as plataformas fossem mais seguras, até porque essa questão do uso da imagem e da sexualização, e do racismo algorítmico, enfim, são a potencialização de tudo que a gente vê na sociedade, que é todos os preconceitos potencializados online. Não é de hoje”, pontua.
Outro ponto a ser considerado é a hiper possibilidade de personalização. Com o advento das IAs generativas, qualquer um pode criar a imagem que quiser usando as ferramentas. Isso abre precedentes para todo tipo de deepfakes, imagens e vídeos ultra-realistas. “O Brasil é um dos maiores países em deepfakes do mundo”, diz Hauser.
A pesquisadora afirma que há medidas que podem ser tomadas como forma de proteção como configurar uma privacidade máxima nas redes sociais, monitorar menções aos nossos nomes, usar senhas de autenticação forte.
Regulamentação e mudança na cultura são chave
Entretanto, há uma lacuna quando se fala em regulamentação das redes sociais, big techs e das IAs, por consequência. “Estruturalmente, a gente poderia regulamentar mais as redes sociais, e isso é difícil porque mexe em questões como liberdade de expressão, é uma velocidade muito grande, a gente precisa de maior rapidez na regulamentação e julgamento desses casos”, comenta Hauser.
“Existe uma disparidade muito grande em como a tecnologia está avançando e nosso sistema judicial, E a gente precisa de trabalho conjunto para fazer essa regulamentação entre Big Techs, entre o setor privado, ou seja, com o governo e com a academia. E eu vejo que no Brasil isso não acontece”.
Apesar disso, a regulamentação seria apenas parte do processo para evitar novos casos de deepfakes. A mudança para coibir o problema precisa ser cultural. “A regulamentação ajuda até certo ponto e tem outras coisas que dependem de uma mudança cultural, dependem de educação, dependem de cultura, dependem de senso crítico, e isso é muito mais difícil.”
“A inteligência artificial generativa, não inventa nada, ela potencializa. A gente está num mundo que sexualiza muito as mulheres, objetifica, que tem questões sérias nesse sentido, e ela vai potencializar tudo isso”. Por isso, cabe aos usuários cobrar o julgamento por violações da Lei Geral de Proteção de Dados (LGPD) e mais medidas regulatórias, além de rotulagem de conteúdo criado por IA.