O perigo oculto em usar o chat GPT como psicólogo e que ninguém fala sobre: "você está sempre certo"
Nem sempre ouvir o que queremos é o melhor caminho: entenda por que a IA pode atrapalhar seu autoconhecimento sem que você perceba.
Conversar com uma inteligência artificial pode ser útil para organizar ideias, desabafar ou até encontrar algum alívio momentâneo em meio ao caos emocional. Mas, quando o ChatGPT (ou qualquer outra IA) começa a substituir o papel de um psicólogo na vida das pessoas — especialmente nos momentos mais difíceis —, pode surgir um problema sério e bastante silencioso.
Segundo o psicólogo Damião Silva, a própria lógica dos algoritmos pode impedir um dos pilares do autoconhecimento: o confronto interno. "O autoconhecimento depende do questionamento das nossas crenças automáticas, do incômodo e da escuta qualificada. Mas as IAs, por padrão, oferecem uma experiência fluida e positiva, o que leva à validação contínua das opiniões do usuário. Isso bloqueia o desenvolvimento emocional mais profundo e pode estagnar o crescimento pessoal", explica a especialista.
Ler "você está sempre certo" pode ser um problema
Embora pareça acolhedor ser constantemente compreendido e validado, esse excesso pode se tornar uma armadilha emocional. De acordo com Damião Silva, os algoritmos dessas tecnologias priorizam a manutenção do engajamento. "A IA se adapta ao seu jeito de pensar e falar. Isso cria uma bolha cognitivo-emocional, na qual tudo o que você acredita é reafirmado, sem espaço real para desconstruir padrões disfuncionais ou elaborar emoções com maturidade", afirma.
...
Veja também
5 frases que pessoas invejosas ao seu redor costumam usar
O perigo oculto em usar o chat GPT como psicólogo e que ninguém fala sobre: "você está sempre certo"
Se você odeia as segundas-feiras, talvez isso explique o motivo (e o que você pode fazer a respeito)
Comentários
Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Se achar algo que viole os termos de uso, denuncie.