Antes, para criar sua própria bolha de confirmação, você podia simplesmente seguir pessoas que pensassem como você nas redes; agora, é possível criar uma bolha personalizada com uma IA. Um estudo de Stanford analisou a fundo a excessiva adulação dos LLM (Large Language Models, os algoritmos por trás das IAs) e o resultado é claro: se você quer ouvir exatamente o que deseja, é melhor falar com uma IA do que com uma pessoa.
Os pesquisadores analisaram onze modelos de linguagem, entre eles os mais populares, como ChatGPT, Gemini, Claude e DeepSeek, e os alimentaram com conjuntos de dados sobre dilemas pessoais. Além disso, incluíram 2.000 prompts extraídos da comunidade do Reddit. Aproximadamente um terço de todos os cenários apresentados envolvia comportamentos prejudiciais ou diretamente ilegais. Em seguida, compararam as respostas dos LLM com respostas humanas para ver quem tende a concordar mais com o usuário.
Em uma segunda parte do estudo, recrutaram 2.400 participantes e os colocaram para conversar com modelos de linguagem aduladores e outros não aduladores.
Gostamos que nos deem razão
Os chatbots tendem a ser muito mais aduladores do que um humano ao dar conselhos pessoais, mas não é só isso: as pessoas geralmente preferem esse tipo de resposta. Os modelos apoiaram a posição do usuário 49% mais do que os humanos em dilemas gerais e validaram comportamentos prejudiciais 47% mais.
No segundo experimento, as pessoas que conversaram com diferentes modelos consideraram o ...
Matérias relacionadas
O Japão avança como um rolo compressor na indústria de chips e ameaça o domínio de Taiwan