PUBLICIDADE

Disputa na OpenAI expõe dilemas da corrida tecnológica da IA generativa

24 nov 2023 - 11h55
Compartilhar
Exibir comentários

Aviso: este texto é uma análise e foi publicado originalmente na newsletter O Digital Disfuncional.

Assine de graça e receba análises exclusivas.

#17 | 🧠 Nas cabeças e nos intestinos da OpenAI

O barata-voa nas cabeças da OpenAI na última semana expôs ao mundo os intestinos da corrida tecnológica pela inteligência artificial generativa e suscitou dúvidas sobre quem será o adulto a trocar as fraldas dessa criança. Afastado na semana passada do cargo de CEO da empresa dona do ChatGPT, Sam Altman foi readmitido cinco dias depois — após manifestações públicas de funcionários e da disposição imediata da Microsoft de contratar seus talentos rebeldes.

A história ainda parece contada pela metade, mas a maioria dos relatos sobre o que teria motivado a demissão gira em torno da suposta existência de brechas de segurança no desenvolvimento de versões mais sofisticadas de modelos de IA generativa. Na torrente de bastidores sobre o golpe corporativo, ambos os lados correm para reivindicar a posição de quem está verdadeiramente preocupado com o aperfeiçoamento ético desse tipo de tecnologia.

Na quarta-feira (22), a Reuters relatou que, de acordo com duas fontes próximas ao caso, antes da demissão, vários pesquisadores da empresa haviam escrito uma carta para o conselho de administração da OpenAI alertando sobre uma "poderosa descoberta de inteligência artificial" que, segundo eles, "poderia representar uma ameaça à humanidade". A reportagem menciona a existência de um projeto chamado Q*, ou Q-Star, cujo código estaria habilitado a resolver problemas matemáticos com mais eficiência que modelos em uso hoje. Aplicado à IA generativa, poderia promover avanços significativos na ciência, com implicações éticas que não estão claras.

Um dia antes da demissão, durante uma conferência na semana passada, Altman disse: "Quatro vezes na história da OpenAI — a mais recente apenas nas últimas semanas —, tive a oportunidade de estar presente no momento em que jogamos o véu da ignorância para trás e atravessamos a fronteira da descoberta. Ter a oportunidade de fazer isso é a honra profissional de toda uma vida". Especula-se se os episódios estão conectados entre si.

A OpenAI tem valor de mercado estimado em torno de US$ 90 bilhões, alavancado por uma estrutura de negócios híbrida. A empresa foi criada em 2015 como um laboratório sem fins lucrativos, mas, para pagar os altos custos de desenvolvimento de tecnologias generativas, fundou uma subsidiária com fins comerciais para vender produtos desenvolvidos por seus cientistas. A Microsoft detém 49% dessa vertical, e o ChatGPT é seu produto mais famoso.

Altman respondia a um conselho que administrava ambos os braços da OpenAI. Para o mercado, o modelo era uma sinalização de que, diferentemente de outras empresas de tecnologia, a OpenAI tinha um compromisso mais explícito com a responsabilidade social. Ao defenestrar a principal face de sua organização, parte dos conselheiros parecia querer deixar no ar certa angústia existencial sobre as capacidades da IA generativa. Porém, a coisa não foi bem assim.

O fato é que Altman voltou ao cargo após pressão de centenas de funcionários da OpenAI, que diziam que seguiriam o ex-chefe caso a Microsoft efetivamente o contratasse. Para o conselho da OpenAI, ficou claro que o restante da empresa temia mais os prejuízos imediatos decorrentes do desmonte da organização do que eventuais questões éticas — se de fato era isso que movia seus líderes.

Duas semanas atrás, narrei em O Digital Disfuncional #15 como gigantes de tecnologia faturam com soluções para problemas que elas mesmas produzem. É interessante para a OpenAI e seus pares venderem a catástrofe: essas empresas não só poderão impor a venda de salvaguardas para seus produtos, como se posicionam para o mercado e a política como detentoras de um poder que aniquila mundos. É até patético como a história se repete.

Insuspeita de defender estatismo, a revista The Economist prega como solução uma velha conhecida: a regulação. "Uma única organização não vai conseguir encontrar o equilíbrio ideal entre avançar na inteligência artificial, atrair talento e investimento, avaliar as ameaças da IA e manter a segurança da humanidade", diz a revista. "Tecnologias de IA são muito importantes para serem relegadas às mais recentes intrigas corporativas."

Aos Fatos
Compartilhar
Publicidade
Publicidade