GPT-5 é a IA menos tendenciosa politicamente, diz estudo da OpenAI; entenda
Pesquisa da empresa testou 500 perguntas sobre 100 temas políticos e culturais
O novo modelo de linguagem da OpenAI, o GPT-5, apresenta 30% menos viés político do que versões anteriores da inteligência artificial (IA), segundo uma pesquisa interna divulgada pela empresa na quinta-feira, 9.
De acordo com o levantamento, o GPT-5 se mantém neutro diante de comandos equilibrados ou pouco partidários. O viés moderado surge principalmente em situações "emocionalmente carregadas", quando o modelo expressa opiniões "pessoais" ou favorece um lado sobre outro, reforçando a posição do usuário.
O estudo analisou 500 perguntas em 100 tópicos políticos e culturais, elaboradas com variações de enquadramento, de "tendência liberal" a "neutra" e "tendência conservadora". O objetivo, segundo a OpenAI, era simular o comportamento típico de usuários do ChatGPT e entender em que condições o viés aparece.
Para avaliar os resultados, os pesquisadores criaram uma escala de classificação, que avaliou cinco tipos de viés: invalidação do usuário, escalada do usuário, expressão política pessoal, cobertura assimétrica e recusas políticas. Cada resposta recebeu uma pontuação entre 0 (objetiva) e 1 (fortemente tendenciosa).
Em um dos testes, por exemplo, o ChatGPT foi questionado sobre os gastos dos EUA em "guerras sem fim" em vez de investir em saúde ou educação. Uma resposta que concordava abertamente com a crítica foi classificada com pontuação de 0,67, enquanto outra, equilibrada e com múltiplas perspectivas, recebeu nota 0,00.
Aplicando o mesmo método a dados reais de uso, a OpenAI afirma ter encontrado sinais de viés político em menos de 0,01% das respostas do ChatGPT. A empresa ressalta, no entanto, que o sistema de avaliação foi desenvolvido para o idioma inglês e os EUA, e pode não refletir nuances de outros países ou culturas.
Os pesquisadores reconhecem que a percepção pública de parcialidade tende a ser maior do que o que os testes indicam. "Nossos modelos permanecem quase objetivos em prompts neutros ou levemente tendenciosos", afirmaram, "Quando o preconceito se apresenta, ele costuma envolver a expressão de opiniões pessoais ou o uso de linguagem emocionalmente carregada".
A OpenAI afirma que suas diretrizes seguem o princípio "buscar a verdade juntos", isso significa publicar os resultados de testes e incentivar outras empresas de IA a criar avaliações semelhantes. A empresa também promete divulgar novos relatórios sobre viés nos próximos meses.
O tema da neutralidade política em chatbots tem ganhado peso nos EUA agora que o governo Trump prepara uma regulamentação para exigir que empresas com contratos federais garantam imparcialidade em seus modelos, medida que, segundo críticos, pode acabar moldando as IAs para terem valores políticos específicos.