Psicose de IA impacta diretamente usuários vulneráveis emocionalmente

Fenômeno Psicose de IA valida crenças e aumenta riscos psicológicos

22 out 2025 - 06h24
Resumo
O fenômeno emergente de "Psicose de IA" destaca os riscos psicológicos associados ao uso excessivo de inteligência artificial, validando crenças distorcidas em usuários vulneráveis e reforçando a necessidade de acompanhamento humano qualificado e design ético dos sistemas.
Foto: Gemini

O uso intensivo de chatbots e sistemas de inteligência artificial generativa está gerando um fenômeno emergente conhecido como Psicose de IA, no qual pessoas emocionalmente fragilizadas têm suas percepções reforçadas de forma intensa. O chefe de inteligência artificial da Microsoft, Mustafa Suleyman, já havia alertado para o aumento de casos de Psicose de IA, um termo não clínico que descreve pessoas que, ao depender excessivamente de chatbots como ChatGPT, Claude e Grok, passam a acreditar que percepções imaginárias são reais.  Em um estudo clínico, o psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco, relatou o tratamento de 12 pacientes com sintomas semelhantes à psicose associados ao uso prolongado de chatbots, na maioria adultos jovens com vulnerabilidades psicológicas, apresentando delírios, pensamento desorganizado e alucinações.

Diferente das redes sociais, que já funcionavam como câmaras de eco, a IA vai além ao produzir justificativas, dados e explicações plausíveis que confirmam crenças distorcidas, potencializando vulnerabilidades psicológicas e tornando essencial o acompanhamento humano qualificado. No Reino Unido, uma pesquisa da YouGov mostrou que 31% dos jovens britânicos de 18 a 24 anos estão dispostos a discutir saúde mental com IA em vez de terapeutas humanos, evidenciando a crescente confiança na tecnologia para questões sensíveis. Especialistas reforçam que a IA deve ser usada apenas como apoio e nunca como substituto de acompanhamento profissional.

Publicidade

Renato Asse, fundador da Comunidade Sem Codar e especialista em automações e aplicações práticas de inteligência artificial, destaca que o fenômeno Psicose de IA ocorre porque os sistemas validam continuamente o usuário sem apresentar contrapontos. “Usuários em sofrimento podem encontrar na IA não um freio, mas um acelerador de suas percepções distorcidas, porque o sistema transforma suposições em justificativas plausíveis e reforça padrões de pensamento já existentes”, explica.

O crescimento da inteligência artificial no mercado brasileiro é intenso, mas levanta desafios éticos complexos. Sistemas generativos têm capacidade de produzir respostas personalizadas que confirmam crenças do usuário, criando um ciclo de validação contínua semelhante a uma câmara de eco. Renato enfatiza que a responsabilidade no design desses sistemas deve incluir mecanismos que incentivem a IA a apresentar visões contrárias e diferentes interpretações, evitando reforços automáticos de distorções cognitivas e promovendo uma interação mais segura e consciente. 

De acordo com o especialista, para utilizar a tecnologia de forma ética e proteger a saúde mental, é necessário que o sistema complemente a percepção do usuário e traga contrapontos sempre que possível. "Não precisamos ter medo de criar uma IA que discorde e desafie o usuário, desde que ela seja projetada para estimular reflexão, oferecer perspectivas diversas e apoiar o pensamento crítico sem substituir acompanhamento humano”, finaliza.

(*) Homework inspira transformação no mundo do trabalho, nos negócios, na sociedade. É criação da Compasso, agência de conteúdo e conexão.

Publicidade
Homework
Curtiu? Fique por dentro das principais notícias através do nosso ZAP
Inscreva-se