Script = https://s1.trrsf.com/update-1765905308/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

'Nós já ultrapassamos a inteligência artificial geral', diz professor de Stanford Michal Kosinski

Conhecido por prever escândalo de dados do Facebook, especialista em IA abriu conferência Brazil at Silicon Valley, patrocinada pelo Estadão, com panorama da evolução da tecnologia; para ele, sistemas que simulam inteligência humana podem ser mais poderosos que a 'vida real'

22 abr 2025 - 14h49
(atualizado às 15h39)
Compartilhar
Exibir comentários

Uma máquina que seja capaz de compreender ou realizar qualquer tarefa humana. Essa é uma das muitas definições da inteligência artificial geral (AGI), espécie de Santo Graal da pesquisa tecnológica no campo da computação nos dias de hoje. Mais do que apenas um alvo, porém, a AGI atrai enorme discórdia entre especialistas: há quem afirme que ela nunca será alcançada.

Não é o caso de Michal Kosinski, professor de comportamento organizacional na Graduate School of Business (GSB) da Universidade de Stanford: em sua palestra na Brazil at Silicon Valley - conferência de tecnologia e inovação realizada esta semana no Vale do Silício, da qual o Estadão é um dos patrocinadores -, ele foi categórico. "Nós já ultrapassamos a inteligência artificial geral", disse.

Em uma fala de cerca de meia hora, que abriu a conferência que reúne cerca de 600 pessoas no Google Event Center em Sunnyvale, Califórnia, Kosinski buscou dar aos presentes uma noção da evolução da inteligência artificial nos tempos modernos. Ele trouxe bons argumentos para sustentar que a AGI já foi alcançada.

"Uma IA hoje já pode escrever um poema ou dar conselhos de relacionamento. Com certeza há humanos fazendo isso melhor. Mas não há nenhum humano que possa fazer as duas coisas, traduzir 200 línguas ou escrever uma poesia em fração de segundos", declarou, ao responder uma pergunta da plateia, fazendo referência aos atuais grandes modelos de linguagem (LLM), como o GPT da Open AI ou o LLaMa, da Meta.

Michal Kosinski, professor de comportamento organizacional na Graduate School of Business (GSB) da Universidade de Stanford
Michal Kosinski, professor de comportamento organizacional na Graduate School of Business (GSB) da Universidade de Stanford
Foto: Pedro Kirilos/Estadão / Estadão

Para Kosinski, o potencial de evolução da tecnologia é enorme, por diferentes razões. "A maioria dos LLMs foi pensado para fazer algo geral: prever a próxima palavra em uma série de palavras. Se um engenheiro treinar um modelo desses para fazer algo específico, como escrever um romance, serão necessários dias ou meses para criar algo que não dê espaço para um humano competir", afirmou, citando exemplos como o Deep Blue, computador que venceu o mestre de xadrez Gary Kasparov, ou o Alpha Go, que bateu campeões mundiais do jogo chinês Go. "A inteligência artificial sempre tem alvos móveis na sua evolução. Fazemos previsões erradas ao longo do tempo porque não entendemos com que tipos de máquina estamos lidando."

Histórico

Nascido na Polônia, Kosinski tem uma trajetória acadêmica marcada por diversos estudos polêmicos - e pela necessidade de alertar a sociedade para usos maliciosos da tecnologia. Psicólogo de formação, ele começou a chamar a atenção em 2013, quando escreveu um artigo que descrevia como curtidas e testes psicológicos feitos em redes sociais poderiam servir para decifrar a personalidade de qualquer pessoa. Anos depois, o mecanismo seria utilizado pela consultoria política Cambridge Analytica (CA) para influenciar a opinião pública em episódios como o Brexit ou as eleições dos EUA em 2016, em um dos maiores escândalos da história do Facebook.

Em 2018, ele voltou a causar barulho em uma nova pesquisa, desta vez alertando que ferramentas de reconhecimento facial poderiam gerar impressões erradas a respeito das pessoas. Para isso, usou um exemplo polêmico: utilizou um algoritmo gratuito e pediu a ele para descrever se as pessoas seriam homossexuais ou heterossexuais, a partir de fotos encontradas em redes sociais.

A ideia era demonstrar como tais sistemas, hoje presentes em plataformas de segurança em grandes cidades ou estádios de futebol, por exemplo, podem servir para falsos diagnósticos e até mesmo acusações errôneas de crimes. Na época, o estudo foi criticado por associações de defesa dos direitos humanos - e em entrevista ao Estadão em 2019, ele se defendeu das polêmicas: "Começaram a me culpar por alertar sobre o problema, mesmo não sendo o autor dessa tecnologia", disse.

AI sociopata?

Na palestra na Brazil at Silicon Valley, Kosinski também não escapou da controvérsia. Ao discutir se uma inteligência artificial precisa mesmo ter habilidades iguais às humanas ou se elas podem simular essas habilidades, ele comparou as máquinas a psicopatas e sociopatas.

"Uma máquina não tem empatia, mas pode ter a capacidade de desenvolver essa habilidade se isso for útil para resolver sua tarefa. Um sociopata também não -,mas pode te convencer que liga para o que você está sentindo e se aproveitar disso. A simulação pode ser mais poderosa que a emoção", afirmou.

Para ele, atingimos um estado na evolução das máquinas que já não importa mais o que é ou não real. "Se uma máquina nos faz comprar o que não queremos ou votar em alguém de que não gostamos, importa se estamos diante de uma simulação?"

Além disso, ele citou a capacidade das inteligências artificiais de continuar evoluindo: segundo ele, o GPT-4, introduzido em 2023, tem capacidade computacional que simula o poder de 10 milhões de neurônios - "é o equivalente ao cérebro de um peixe-zebra", brincou. "Imagina o que essa tecnologia poderá fazer quando evoluir exponencialmente e, ao contrário dos nossos neurônios, não tiver de se preocupar com se defender de patógenos ou usar energia para alimentar suas ligações?".

Ao final da palestra, Kosinski não deixou de fazer mais um alerta aos presentes, em tom que pareceu jogar água no chope do clima otimista da conferência. "Estamos gastando muito tempo e dinheiro para testar a IA, permitindo que ela possa espelhar nossos processos psicológicos. É algo que pode ser útil, mas também extremamente perigoso", disse. "Em breve, os seres humanos podem não ser os seres mais inteligentes sobre o planeta Terra."

Estadão
Compartilhar
TAGS
Publicidade

Conheça nossos produtos

Seu Terra












Publicidade