Paul Romer, Nobel de Economia, alerta sobre risco de IA abastecida com dados errados
Pilares da sociedade - o sistema de justiça, a ciência, o jornalismo - terão transformações com a disseminação da IA, ressaltou o economista americano na Febraban Tech, em São Paulo
A Inteligência Artifical (IA) ainda é muito fraca e ainda é um risco usá-la em larga escala, de acordo com o professor e Nobel de Economia Paul Romer. "Não ouçam os cientistas de computação e as empresas, eles estão interessados em vender os produtos que estão criando", disse ele nesta quinta-feira, 12, em palestra na Febraban Tech, feira e conferência de tecnologia bancária que ocorre em São Paulo.
Enquanto quase todo o mundo das finanças está empolgado com as possibilidades da tecnologia, o ex-economista-chefe do Banco Mundial é cético. Ele sublinha que os erros das máquinas ocorrem porque os dados que as alimentam muitas vezes são incorretos.
"Existem muitos documentos com informações que não correspondem à realidade." O uso das ferramentas generativas com informações imprecisas invalida a eficiência delas, ele resume.
Os modelos de linguagem em larga escala (LLM, na sigla em inglês), cujo maior representante é o ChatGPT, podem ser úteis e estão cada vez mais populares. Mas eles estão sujeitos a erro, e o custo pode ser muito alto, diz o Nobel.
Para Romer, as bases tecnológicas da IA deveriam ser todas abertas, não privadas. Há um conflito, na visão dele, ao levar em conta só a perspectiva positiva de quem justamente está ganhando dinheiro com a tecnologia.
O professor fez um longo prólogo explicando que a humanidade desenvolveu sistemas e instituições que estabelecem o que é fato e se convenciona chamar de verdade. Pilares da sociedade - o sistema de justiça, a ciência, o jornalismo - terão transformações com a disseminação da IA, ele diz.
Neste aspecto, ressalta que existem tecnologias e pessoas trabalhando para detectar erros e melhorar a qualidade da IA, mas sempre há riscos em usar a tecnologia com tantas imprecisões.