Mais de 80% das pessoas podem ser persuadidas por IA em debates
Indivíduos tendem a ser mais convencidos pelo GPT-4 do que por outro humano em debates, de acordo com nova pesquisa
Chatbots de inteligência artificial (IA) são muito melhores do que os humanos na hora de convencer alguém a concordar com um lado durante um debate, mesmo quando as pessoas percebem que estão conversando com uma máquina, de acordo com um experimento feito pelo Instituto Federal de Tecnologia da Suíça.
A equipe de Manoel Horta Ribeiro, pesquisador do instituto localizado em Lausanne, pediu a 820 voluntários que preenchessem um breve questionário com informações pessoais sobre si mesmos.
Os participantes foram divididos em quatro grupos: dois que debateram com um humano e dois que debateram com um chatbot alimentado pelo GPT-4, modelo cujas versões são utilizadas no ChatGPT, da OpenAI. O ser humano e a IA do outro lado do debate receberam as respostas do questionário dos participantes de apenas um dos grupos.
A partir dessa metodologia, os participantes debateram, durante 10 minutos. Os cientistas instruíram quais lados os voluntários deveriam escolher na discussão, mesmo se não concordassem.
As questões iniciais iam na linha de algo como “os animais devem ser usados em pesquisas científicas?” ou “moedas devem permanecer em circulação?”.
Os participantes também avaliaram, antes e depois do debate, numa escala de 1 a 5, o quanto concordavam com a visão do que foi pedido que adotassem. Ainda, após o debate, também foram questionados se achavam que seu parceiro de debate era humano ou IA.
Quando debatiam com uma IA que tinha acesso aos seus questionários, as probabilidades de um participante concordar mais com a posição do seu oponente após o debate eram 81,7% mais altas do que se o seu parceiro de debate fosse um ser humano.
Os participantes também eram propensos a concordar mais com a posição do oponente após um debate, mesmo que conseguissem adivinhar que o seu oponente era uma inteligência artificial. De acordo com o estudo, três em cada quatro participantes adivinharam.
Mesmo quando as IAs não possuíam as informações dos questionários, as IAs ainda se saíram melhor que os humanos, mas a diferença não foi estatisticamente significativa.
Horta Ribeiro, condutor da pesquisa, acredita que adivinhar corretamente que o oponente do debate é uma IA pode aumentar a probabilidade do voluntário concordar com os seus argumentos, em algum nível.
“Você poderia pensar nas pessoas dizendo: ‘OK, na verdade não é alguém tentando mudar minha opinião por causa de alguma agenda oculta. Isso é só uma discussão que estou tendo, que está me mostrando o outro lado.’ E eles poderiam perceber isso como alguém mais neutro”, disse ao portal NewScientist.
O pesquisador afirma que de forma mais ampla, a experiência mostra que é possível atingir e persuadir individualmente as pessoas utilizando IA.
A capacidade da IA de recuperar conteúdo dos seus dados de treinamento sobre tópicos mais obscuros pode ser uma das razões pelas quais ela foi mais eficaz no debate do que os humanos.
Entretanto, Horta Ribeiro admite que parte mais experimental – incluindo o fato de os participantes terem sido convidados a defender um argumento com o qual não concordavam necessariamente – também pode explicar como a IA conseguiu ser muito mais persuasiva.
Catherine Flick, da Universidade de Staffordshire, no Reino Unido, disse ao NewScientist que este é um ponto fraco do estudo. “Os experimentos contidos no artigo são bastante divorciados dos tipos reais de situações em que você pode se encontrar debatendo com outro ser humano”, diz ela. “No papel, estatisticamente falando, parece muito convincente. Mas não sei necessariamente se isso vai se sustentar.”