O ChatGPT finge que sabe tudo, mesmo quando não tem a menor ideia; a Universidade de Stanford acredita ter a solução
Uma pesquisa da Universidade de Stanford propõe a solução para as alucinações da IA
As alucinações vêm sendo o calcanhar de Aquiles da IA desde que os chatbots passaram a fazer parte da nossa vida. Empresas como a OpenAI prometeram que as alucinações poderiam ser mitigadas com processos de treinamento adequados, mas, anos depois, tanto o ChatGPT quanto seus rivais diretos continuam inventando respostas quando não têm certeza do que dizer. Shuhui Qu, pesquisadora da Universidade de Stanford, acredita ter encontrado um caminho para abordar o problema.
Os modelos de linguagem atuais têm um defeito de fábrica: respondem com total segurança mesmo quando não têm a menor ideia ou as informações necessárias. Isso tem a ver com a forma como avançam ao processar qualquer resposta, já que os LLMs não têm nenhum problema em completar informações faltantes, mesmo que estas não sejam fiéis à realidade e usem suposições.
Shuhui Qu, pesquisadora da Universidade de Stanford, publicou um artigo no qual apresenta o que ela chama de Planejamento Categorial Bidirecional com Autoconsulta. Uma abordagem que parte de uma ideia simples, mas incômoda para as grandes empresas de tecnologia: obrigar o modelo a reconhecer explicitamente o que não sabe e a não avançar até resolver isso.
Um método mais científico
A ideia não é que o modelo pense melhor, mas que deixe de fingir que sabe tudo. A proposta de Qu parte de uma premissa básica: toda vez que o modelo dá um passo no seu raciocínio, deveria se perguntar se realmente tem a informação necessária para fazê-lo.
Quando surgisse uma ...
Matérias relacionadas
US$ 35 milhões por letra: a compra do domínio AI.com quebra recorde histórico e o preço é insano