A tendência é clara. Os grandes laboratórios de inteligência artificial estão fechando seus algoritmos à medida que eles se tornam mais poderosos, e o movimento começou entre aqueles que construíram suas reputações com código aberto.
Há duas semanas, o Alibaba, dona da família de algoritmos Qwen, lançou três modelos proprietários em três dias consecutivos. Pouco depois, a Meta, cujo CEO havia publicado um manifesto defendendo que o futuro da IA seria aberto, mudou de direção e lançou seu último grande modelo como proprietário.
A novidade mais impactante, porém, veio da Anthropic. A empresa anunciou na semana passada o Claude Mythos, um modelo que identificou milhares de vulnerabilidades em todos os principais sistemas operacionais e navegadores do mundo, incluindo falhas que passaram décadas sem serem detectadas por humanos. As capacidades foram tão relevantes que a Anthropic decidiu não disponibilizá-lo ao público.
A ideia de que as grandes empresas divulgariam ao público um algoritmo superinteligente sempre foi absurda. Um sistema capaz de descobrir novas moléculas e desenvolver medicamentos para doenças como Alzheimer ou câncer de pâncreas pode valer centenas de bilhões de dólares. Sem falar no potencial de criar empresas inteiramente novas em finanças, armas e transporte autônomo.
Nos Estados Unidos, a corrida pela IA tem sido frequentemente enquadrada nos termos do Projeto Manhattan. Depois que os americanos desenvolveram a bomba nuclear, alguns países conseguiram replicá-la antes que a tecnologia fosse vedada aos demais, e as consequências geopolíticas para quem ficou de fora ainda se refletem até hoje.
A comparação é útil, mas subestima o que está em jogo. A bomba atômica é uma arma de aplicação única, enquanto a superinteligência é uma tecnologia de uso geral que transformará todas as dimensões da vida econômica, científica, militar e social.
Ficar de fora da superinteligência não significa perder uma arma, mas a capacidade de competir em praticamente tudo.