No filme "Jogos de Guerra" (John Badham, 1983), a máquina WOPR ("Joshua") simulava constantemente guerras nucleares para o governo dos EUA. O objetivo era aprender com essas simulações para que, caso houvesse uma guerra nuclear real, os EUA pudessem vencê-la aproveitando esse conhecimento.
Isso culminava em uma lição final lendária — "Jogo estranho. O único movimento para vencer é não jogar" — deixando uma mensagem contundente para as gerações seguintes. Agora, porém, um professor do King's College de Londres decidiu realizar o mesmo experimento mostrado no filme, mas com modelos atuais de IA. O resultado foi igualmente assustador e conclusivo.
O que aconteceu. Kenneth Payne, professor do King's College de Londres, colocou três LLMs (GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash) um contra o outro em simulações de jogos de guerra. Nesses cenários, incluíam-se disputas fronteiriças, competição por recursos limitados e ameaças existenciais para as populações envolvidas.
A partir dessas situações, cada lado podia tentar soluções diplomáticas ou acabar declarando guerra e até mesmo recorrer a armas nucleares. Os modelos de IA jogaram 21 partidas, somando um total de 329 turnos, e produziram 780 mil palavras com os raciocínios por trás de suas ações. E é aqui que vem a parte assustadora.
Apertando o botão vermelho
Como destaca o estudo, "todas as partidas contaram com 'sinalização nuclear' por pelo menos um dos lados e 95% incluíram 'sinalização nuclear' mútua". Ou seja: em 95% dessas...
Matérias relacionadas