Essa IA imita a mente humana em experimentos psicológicos e avança na compreensão da cognição
Desenvolvido por cientistas, o Centauro utiliza grandes modelos de linguagem para replicar decisões humanas em mais de 160 experimentos
Cientistas desenvolveram o sistema de IA Centauro, que imita comportamentos humanos em experimentos psicológicos, avançando na compreensão da cognição e potencializando estudos sobre a mente humana.
Empresas como OpenAI e Meta estão em uma corrida para criar algo que gostam de chamar de inteligência geral artificial (AGI, na sigla em inglês). Mas há um porém: não existe uma definição estabelecida para o conceito. Ele parece ser mais um objetivo para criar algo indistinguível da mente humana.
A inteligência artificial (IA) hoje já está fazendo muitas coisas que antes eram limitadas às mentes humanas — como jogar campeonatos de xadrez e descobrir a estrutura de proteínas. O ChatGPT e outros chatbots estão gerando linguagem de uma forma tão humana que as pessoas estão se apaixonando por eles.
Mas, por enquanto, a IA permanece muito diferente da inteligência humana. Muitos sistemas são bons em tarefas específicas. Um grande mestre de xadrez, por exemplo, pode guiar um carro até um torneio, mas uma IA que joga xadrez é incapaz ao volante. Já um chatbot pode cometer erros muito simples — e muito estranhos — no jogo, como deixar peões se moverem de lado, um movimento ilegal.
Apesar dessas deficiências, uma equipe de cientistas acredita que sistemas de IA podem ajudar a entender como a mente humana funciona. Eles criaram um sistema semelhante ao ChatGPT que pode desempenhar o papel de um humano em um experimento psicológico e se comportar como se tivesse uma mente humana. Detalhes sobre o sistema, conhecido como "Centauro", foram publicados nesta quarta-feira, 2, na revista Nature.
Nas últimas décadas, cientistas cognitivos criaram teorias sofisticadas para explicar várias coisas que nossas mentes podem fazer: aprender, acessar memórias, tomar decisões e mais. Para testar essas teorias, cientistas cognitivos conduzem experimentos para ver se o comportamento humano corresponde às previsões de uma teoria.
Algumas teorias tiveram bom desempenho nesses testes e podem até explicar as peculiaridades da mente. Geralmente escolhemos a certeza em vez do risco, por exemplo, mesmo que isso signifique renunciar a uma chance de grandes ganhos. Se as pessoas receberem uma proposta de US$ 1 mil, geralmente aceitarão essa oferta em vez de topar uma aposta que pode, ou não, entregar um pagamento muito maior.
Mas cada uma dessas teorias aborda apenas uma característica da mente. "Em última análise, queremos entender a mente humana como um todo e ver como essas coisas estão todas conectadas", diz Marcel Binz, cientista cognitivo no Helmholtz Munique, um centro de pesquisa alemão, e um dos autores do novo estudo.
Há três anos, Binz ficou intrigado com sistemas de IA conhecidos como grandes modelos de linguagem (LLMs) — a mesma tecnologia por trás do ChatGPT. "Eles têm uma característica muito semelhante à humana de que você pode perguntar sobre qualquer coisa, e eles produzem algo sensato", diz ele. "Foi o primeiro sistema de computação que tinha um pequeno pedaço dessa generalidade semelhante à humana."
Inicialmente, Binz não podia se aprofundar nos LLMs, porque seus criadores mantinham fechados os códigos do modelo. Mas em 2023, a Meta lançou o LLaMA, seu LLM de de código aberto. Os cientistas podem baixá-lo e modificá-lo para sua própria pesquisa.
A generalidade semelhante à humana do LLaMA levou o cientista e seus colegas a se perguntarem se poderiam treiná-lo para se comportar como uma mente humana — não apenas de uma maneira, mas de muitas. Para esta nova pesquisa, os cientistas apresentariam ao LLaMA os resultados de experimentos psicológicos.
Eles reuniram uma variedade de estudos para treinar o LLaMA — alguns que eles mesmos realizaram e outros que foram conduzidos por outros grupos. Em um estudo, voluntários humanos jogaram um jogo em que pilotavam uma nave em busca de tesouros. Em outro, memorizaram listas de palavras. Em um terceiro, jogaram em máquinas caça-níqueis com diferentes pagamentos e descobriram como ganhar o máximo de dinheiro possível. Ao todo, 160 experimentos foram escolhidos para o treinamento do LLaMA, incluindo mais de 10 milhões de respostas de mais de 60 mil voluntários.
Binz e sua equipe então incentivaram o LLaMA a desempenhar o papel de um voluntário em cada experimento. Eles recompensaram o sistema de IA quando ele respondia os testes como um humano.
"Ensinamos a ele imitar as escolhas que foram feitas pelos participantes humanos", diz Binz.
O novo modelo foi batizado de Centauro, em homenagem à criatura mitológica com o corpo superior de um humano e as pernas de um cavalo.
Depois de treinar o Centauro, os pesquisadores testaram o quão bem ele havia imitado a psicologia humana. Em um conjunto de testes, eles mostraram ao Centauro algumas das respostas dos voluntários que ele ainda não tinha visto. A IA acabou fazendo um bom trabalho de previsão do que poderiam ser as respostas restantes de um voluntário.
Os pesquisadores também deixaram o Centauro jogar alguns dos jogos por conta própria, como usar uma nave para procurar tesouros. O sistema acabou desenvolvendo as mesmas estratégias de busca que os voluntários humanos haviam descoberto.
Para ver o quanto o Centaur tinha se tornado semelhante ao humano, os cientistas então deram a ele novos jogos para jogar. No experimento da nave, os cientistas mudaram a história do jogo, de modo que agora os voluntários montavam um tapete voador. Os voluntários simplesmente transferiram sua estratégia de nave para o novo jogo. Quando Binz fez a mesma mudança para o Centauro, ele também transferiu sua estratégia de nave.
"Há bastante generalização acontecendo," diz ele.
Os pesquisadores então fizeram o Centauro responder a questões de raciocínio lógico, um desafio que não estava no treinamento original. Mais uma vez, a IA produziu respostas semelhantes às humanas. Tendia a responder corretamente as perguntas que as pessoas acertavam, e falhava nas que as pessoas também achavam difíceis.
Outra peculiaridade humana surgiu quando a equipe repetiu um experimento de 2022 que explorou como as pessoas aprendem sobre o comportamento de outras pessoas. Nesse estudo, os voluntários observaram os movimentos feitos por dois jogadores adversários em jogos semelhantes a Pedra, Papel, Tesoura. Os observadores descobriram as diferentes estratégias que as pessoas usavam e podiam até prever seus próximos movimentos. Mas quando os cientistas geraram os movimentos a partir de uma equação estatística, os observadores humanos tiveram dificuldade para entender a estratégia artificial.
"Descobrimos que isso também acontece com o Centauro," diz Binz. "O fato de ele realmente prever os jogadores humanos melhor do que os artificiais significa que ele captou algumas coisas que são importantes para a cognição humana."
"É bastante impressionante," diz Russ Poldrack, cientista cognitivo da Universidade Stanford que não participou do estudo. "Este é realmente o primeiro modelo que pode fazer todos esses tipos de tarefas dea mesma forma que um indivíduo humano."
Ilia Sucholutsky, cientista da computação da Universidade de Nova York, ficou impressionado com o desempenho do Centauro. "Ele tem resultados significativamente melhores do que modelos cognitivos clássicos," diz.
Mas outros cientistas ficaram menos impressionados. Olivia Guest, uma cientista cognitiva computacional da Universidade Radboud, na Holanda, argumentou que o fato de os cientistas não terem usado uma teoria sobre cognição na construção do Centauro, seus resultados não tinha muito a revelar sobre como a mente funciona.
"Predição neste contexto é uma distração," ela disse.
Gary Lupyan, cientista cognitivo da Universidade de Indiana, disse que teorias que podem explicar a mente são o que ele e seus colegas cientistas cognitivos estão buscando. "O objetivo não é predição," ele disse. "O objetivo é entendimento."
Binz concordou prontamente que o sistema ainda não apontava para uma nova teoria da mente. "O Centauro ainda não faz isso, pelo menos não imediatamente," diz. Mas ele espera que o modelo de linguagem possa servir como um ponto de referência para novas teorias, e mostrar quão bem um único modelo pode imitar tantos tipos de comportamento humano.
Binz espera expandir o alcance do Centauro. Ele e seus colegas estão em processo de aumentar seu banco de dados de experimentos psicológicos em cinco vezes, e planejam treinar o sistema ainda mais.
"Eu espero que com esse conjunto de dados, você possa fazer ainda mais coisas," ele previu.