Script = https://s1.trrsf.com/update-1765905308/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Máquinas já 'pensam' como humanos? O que teste criado há 75 anos revela sobre era da inteligência artificial

Cada vez se torna mais difícil distinguir entre inteligência artificial e humanos. Mas isso realmente significa que a IA já consegue pensar como uma pessoa?

9 jan 2026 - 16h57
Compartilhar
Exibir comentários
Uma ilustração mostra uma pessoa e um robô sentados um de frente para o outro, separados por uma parede azul. Ambos estão usando computadores, com balões de fala sugerindo que estão conversando. Acima da pessoa, há um balão de pensamento com um ponto de interrogação.
Uma ilustração mostra uma pessoa e um robô sentados um de frente para o outro, separados por uma parede azul. Ambos estão usando computadores, com balões de fala sugerindo que estão conversando. Acima da pessoa, há um balão de pensamento com um ponto de interrogação.
Foto: Getty Images / BBC News Brasil

Podemos distinguir se estamos conversando com outro ser humano ou com uma inteligência artificial (IA)?

Durante muito tempo, esta tem sido uma das perguntas feitas pelas pessoas ao avaliarem o quão inteligentes os computadores realmente são.

Ela se origina do Teste de Turing, elaborado pelo matemático e cientista da computação inglês Alan Turing em 1950 — transformando, pela primeira vez, o pensamento filosófico sobre a inteligência das máquinas em um teste empírico.

De acordo com o teste, se o comportamento de um computador fosse indistinguível do de um humano, então ele seria considerado como alguém que exibe um comportamento "inteligente".

Alan Turing criou um teste que mede o quão indistinguíveis as máquinas são dos humanos
Alan Turing criou um teste que mede o quão indistinguíveis as máquinas são dos humanos
Foto: Getty Images / BBC News Brasil

Mas quando um chatbot de IA supostamente passou no teste pela primeira vez em 2014, em vez de ser um momento decisivo, isso alimentou uma controvérsia.

Um jogo de imitação

O Teste de Turing é um jogo de imitação onde uma pessoa conversa, via texto, tanto com outro ser humano quanto com um computador.

Elas podem fazer as perguntas que desejarem antes de terem que decidir qual é o humano e qual é a máquina.

"Turing afirmou que, se as pessoas não conseguissem distinguir de forma confiável entre humanos e máquinas, então não teríamos base para dizer que o humano podia pensar, mas a máquina não", diz Cameron Jones, professor assistente de psicologia na Universidade Stony Brook, em Nova York (EUA).

Turing previu que, até o ano 2000, os computadores seriam capazes de se passar por humanos após cinco minutos de questionamento, em pelo menos 30% das vezes.

O Teste de Turing avalia se um ser humano consegue distinguir entre uma máquina e outro ser humano após fazer perguntas por mensagem de texto
O Teste de Turing avalia se um ser humano consegue distinguir entre uma máquina e outro ser humano após fazer perguntas por mensagem de texto
Foto: Getty Images / BBC News Brasil

'Sem jogar de forma justa'

Em 2014, um chatbot de IA chamado Eugene Goostman convenceu 33% dos juízes de que era humano no Teste de Turing — ultrapassando o limite estabelecido pelos organizadores da competição.

Comunicando-se em inglês, ele adotou a personalidade de um menino ucraniano de 13 anos.

Markus Pantsar, filósofo e palestrante convidado na Universidade RWTH Aachen, na Alemanha, diz que isso significava que ele não estava "jogando o jogo de forma justa".

"As deficiências do chatbot meio que se ajustavam às deficiências no domínio da língua inglesa de um adolescente ucraniano", argumenta ele.

O ChatGPT 4.5 passou no Teste de Turing em 2025, segundo pesquisa de Jones
O ChatGPT 4.5 passou no Teste de Turing em 2025, segundo pesquisa de Jones
Foto: Getty Images / BBC News Brasil

Desde então, ferramentas mais avançadas teriam passado no Teste de Turing.

Em um artigo publicado no início de 2025, Jones descobriu que o ChatGPT 4.5 da OpenAI foi julgado como humano em 73% das vezes — com mais frequência do que o seu homólogo humano. O Llama 3.1 da Meta foi julgado como humano em 56% das vezes.

"Acho difícil argumentar que os modelos não passaram no teste, dado que são julgados como humanos significativamente mais vezes do que as pessoas", diz ele.

Mas alguns permanecem céticos sobre se isso prova que os computadores realmente podem pensar.

O argumento do quarto chinês

Em 1980, o filósofo John Searle propôs um experimento mental chamado "o argumento do quarto chinês".

Ele funciona assim: um homem inglês que não entende chinês é trancado em um quarto com alguns caracteres chineses e instruções em inglês sobre como usá-los.

Pessoas fora do quarto passam bilhetes para ele com perguntas escritas em chinês, e ele usa as instruções para formular respostas, também em chinês.

Para quem está de fora, pareceria que o homem sabe falar chinês, mas ele não entende verdadeiramente o que está dizendo.

Alguns argumentam que o mesmo poderia ser dito sobre os computadores, que são meramente programados para dar respostas apropriadas.

Alguns argumentam que as máquinas podem passar no Teste de Turing simplesmente imitando humanos, e não por meio de inteligência real
Alguns argumentam que as máquinas podem passar no Teste de Turing simplesmente imitando humanos, e não por meio de inteligência real
Foto: Getty Images / BBC News Brasil

"Embora o Teste de Turing afirme identificar inteligência, ele tenta principalmente identificar se uma máquina consegue imitar humanos bem o suficiente", diz George Mappouras, um engenheiro de software baseado na Califórnia, que criou sua própria alternativa ao Teste de Turing.

Ele dá um exemplo para ilustrar isso.

"Você pode abrir qualquer bot de IA e pedir primeiro que ele explique como funciona um relógio analógico, e ele explicará com precisão", diz ele.

Mas se você pedir para ele gerar a imagem de um relógio marcando uma hora específica, os modelos de IA atuais provavelmente falharão.

"Ele não entende realmente a informação", afirma.

Outros, como Pantsar, pensam que o Teste de Turing coloca ênfase demais na capacidade do computador de enganar o juiz.

"O comportamento inteligente real pode incluir enganar, mas, fundamentalmente, essa não é a parte principal", argumenta ele.

Testes alternativos

Pantsar criou o Teste de Inteligência Baseado em Comunidade (CBIT) — uma das muitas alternativas propostas ao longo dos anos.

Ao contrário do Teste de Turing, realizado em laboratório, no cenário dele um sistema de IA é colocado dentro de uma comunidade existente — por exemplo, uma comunidade online de matemáticos — sem o conhecimento deles.

Depois de algum tempo, os membros são testados para verificar se perceberam que se tratava de uma máquina ou não.

Ainda há algum nível de decepção, mas Pantsar acredita que a maior parte do teste envolveria o sistema "comportando-se de maneira humana", e não "personificando" humanos — o que ele afirma ser uma distinção importante.

"A inteligência deve ser avaliada em circunstâncias naturais — o tipo de ambiente em que realmente interagimos", argumenta o filósofo.

Ele diz que seu teste também incentiva os desenvolvedores a focarem em se um sistema de IA é útil ao criá-lo, em vez de se ele passaria ou não em um teste de enganação.

Mappouras, por outro lado, elaborou um teste que, segundo ele, analisa uma medida de inteligência mais concreta.

Ele acredita que a inteligência artificial geral — um conceito teórico onde uma máquina tem a mesma capacidade intelectual que um humano — seria alcançada se uma máquina pudesse "propor algum novo conhecimento científico e explicá-lo", desde que ela já conheça toda a informação necessária.

Outras alternativas ao Teste de Turing incluem o estudo da IA ​​em ambientes online naturais
Outras alternativas ao Teste de Turing incluem o estudo da IA ​​em ambientes online naturais
Foto: Getty Images / BBC News Brasil

Apesar das críticas, alguns acreditam que o Teste de Turing ainda tem um lugar na pesquisa moderna de IA.

Jones diz que o fato de ele ser aberto e as perguntas não serem claramente definidas permite testar "algum tipo de inteligência dinâmica e flexível".

"Se substituirmos isso por apenas outro parâmetro estático, acho que estaremos interpretando mal o que Turing pretendia", afirma.

'Uma batalha perdida'

Independentemente do teste utilizado, Pantsar acredita que, à medida que os sistemas de IA continuam a se desenvolver, é provável que se tornem indistinguíveis das pessoas.

"No fim das contas, essa é uma batalha perdida que estamos travando", diz ele.

E ser capaz de provar isso, argumenta, justificaria a necessidade de marcos legais que obriguem a IA a se declarar como IA — por razões de responsabilidade.

"Se eu publicasse um artigo que contivesse alguns dados errôneos, eu seria o responsável por isso", diz Pantsar. "Mas se for um artigo escrito por IA, ninguém é responsável."

Nossa interação com a IA está aumentando, à medida que a própria IA se torna mais sofisticada
Nossa interação com a IA está aumentando, à medida que a própria IA se torna mais sofisticada
Foto: Getty Images / BBC News Brasil

Jones acredita que é importante medir quão bem uma máquina consegue imitar um humano, o que torna o Teste de Turing ainda relevante hoje.

"Passamos muito tempo interagindo com pessoas na internet", diz ele.

"E, cada vez mais, as pessoas estão começando a ter essa experiência de... entrar em uma discussão com uma conta no Twitter e perceber: 'Na verdade, não estou falando com um ser humano'."

"Uma das coisas que o Teste de Turing faz, eu acho, é acompanhar essa capacidade de ver qual a probabilidade de isso acontecer", acrescenta.

BBC News Brasil BBC News Brasil - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização escrita da BBC News Brasil.
Compartilhar
TAGS
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade