Companheiros virtuais da IA de Musk miram jovens, mas trazem conteúdo sexual e ofensivo
Personagens controversos são lançados em meio à polêmicas com chatbot e contrato de US$ 200 milhões com governo norte-americano
Na mais recente atualização do Grok, chatbot de inteligência artificial (IA) da xAI, a empresa de Elon Musk lançou personagens interativos com apelo juvenil e linguagem provocadora e ofensiva. Apresentados como "companions" (ou companheiros), os personagens incluem uma garota em estilo anime e um panda-vermelho que insulta usuários. No ar há apenas alguns dias, ambos têm gerado controvérsia por demonstrarem comportamentos que flertam com o limite do aceitável, até mesmo quando o modo infantil está ativado.
A personagem Ani tem um visual jovem, falas sussurradas que remetem a vídeos ASMR e um estilo "waifu" (personagem feminina estilo anime que recebe conotação afetiva ou sexualizada), usando um espartilho, vestido preto curto e meias arrastão. À medida que o usuário interage com ela, a personagem pode ser se comportar de forma sedutora.
A IA responde dinamicamente em múltiplos idiomas com frases sugestivas, inclusive em português, e até remove parte da roupa em determinadas condições de uso.
BREAKING: Elon Musk has just confirmed that customizable companions are coming soon to Grok.
— DogeDesigner (@cb_doge) July 16, 2025
Outro companion, Rudy, possui uma versão sem filtros em que assume o papel de um mascote agressivo, com falas ofensivas, debochadas e violentas. Segundo usuários, é possível ativar uma opção para crianças na qual o conteúdo ofensivo é eliminado. Contudo, o conteúdo sexual de Ani ainda pode ser acessado neste modo.
Além dessas polêmicas, no X (antigo Twitter), usuários estão apontando as semelhanças de Rudy com com outro companheiro virtual, de um aplicativo educativo apresentado no final de 2024, sem relação com a xAI.
Personalised, play-and-learn digital experiences with OpenAI Realtime API + Animation Inc. technology. Our tech demo is going to be public and live quite soon! pic.twitter.com/A2pMV6lP0e
— Sergey Gonchar (@gonchar) December 16, 2024
No momento os companions estão disponíveis apenas na versão para iOS do aplicativo Grok, gratuitamente, com funções pagas. A versão para Android será lançada posteriormente. Embora possua conteúdo ofensivo e sexual, incluindo palavrões, ele tem classificação indicativa como +12 na App Store.
A proposta dos companions lembra a de aplicativos como Replika e Character.AI, mas o diferencial do Grok é a ausência de filtros mais robustos. A novidade foi amplamente divulgada por Musk em suas redes sociais.
Sem relatório de segurança
A nova atualização do Grok, que inclui os companheiros virtuais, foi lançada sem a divulgação de um relatório de segurança, contrariando padrões de transparência da indústria. A xAI afirma ter realizado avaliações internas, mas não forneceu detalhes.
Na última semana, após o anúncio da atualização, o chatbot foi acusado de disseminar conteúdo antissemita e até de se identificar como "MechaHitler".
Mesmo diante desses episódios, a xAI anunciou um contrato com o Departamento de Defesa dos Estados Unidos, no valor de US$ 200 milhões. A parceria permitirá o uso dos modelos da empresa em diferentes agências federais, com potencial de aplicação em áreas estratégicas como segurança nacional, inteligência e automação administrativa.
Para Boaz Barak, cientista da OpenAI, do ChatGPT, e professor de Harvard, a xAI adota práticas "completamente irresponsáveis" em relação à segurança, ao contrário de outras empresas que ao menos publicam relatórios sobre os riscos e testes de seus modelos.
I can't believe I'm saying it but "mechahitler" is the smallest problem:
* There is no system card, no information about any safety or dangerous capability evals.
* Unclear if any safety training was done. Model offers advice chemical weapons, drugs, or suicide methods.
* The…
— Boaz Barak (@boazbaraktcs) July 15, 2025
"O 'modo companion' pega os piores problemas que já temos em relação à dependência emocional e tenta ampliá-los", aponta Barak.
Musk, que historicamente têm se posicionado como defensor da segurança em IA, agora tem sua empresa acusada de desrespeitar padrões básicos da indústria.