Os céticos da IA avisaram que estávamos nos empolgando demais e não acreditamos, mas na a IA é muito limitada
As novas versões dos modelos de IA não impressionam, o que traz indícios de desaceleração e de um fracasso das expectativas que muitos depositavam na tecnologia
O GPT-5 é um pouco melhor que o GPT-4. O problema dessa frase está na palavra "um pouco". O novo modelo "unificado" da OpenAI não parece representar o salto qualitativo que muitos esperavam, e isso voltou a acionar os alertas. Pode-se perguntar: e se a IA não conseguir ir muito além do que é agora? Mas talvez isso já esteja acontecendo. A pergunta então é outra: o que fazer a seguir?
Em 2020, uma equipe de pesquisadores da OpenAI publicou um estudo intitulado "Leis do escalonamento para Modelos Neurais de Linguagem". Nele, propunham uma espécie de Lei de Moore da IA: quanto mais dados e poder de computação você dedicasse para treinar os modelos, melhores eles seriam. Essa observação se mostrou clara quando lançaram o GPT-3, que era 10 vezes maior que o GPT-2, mas muito, muito melhor que aquele modelo.
Gary Marcus, professor de psicologia e ciências neurais na Universidade de Nova York, explicou em 2022 que aquele estudo não fazia muito sentido: "as chamadas leis do escalonamento não são leis universais como a da gravidade, mas apenas meras observações que podem não se manter para sempre". Até Satya Nadella concordou com essa afirmação alguns meses atrás no evento Ignite 2024. E, como estamos vendo, suas dúvidas se confirmaram. O escalonamento funciona, e os modelos são um pouco melhores que seus predecessores, mas a desaceleração parece estar presente.
Mas o GPT-5 não é tão ruim
Na verdade, o GPT-5 melhorou em métricas relevantes. Os responsáveis da Epoch AI avaliaram seu...
Matérias relacionadas
Um ex-chefe da PlayStation insiste: os preços dos videogames deveriam ter aumentado a cada geração