Um pesquisador propôs um jogo ao ChatGPT; o que recebeu em troca foram chaves funcionais do Windows 10
Um grupo de pesquisadores enganou o ChatGPT com um jogo para obter chaves funcionais do Windows. O modelo não detectou o pedido como perigoso porque veio camuflado em uma dinâmica inocente
Às vezes, o mais eficaz é o mais simples. Foi o que pensou Marco Figueroa, pesquisador de cibersegurança, quando, na semana passada, decidiu testar os limites do ChatGPT. A proposta era tão inocente quanto desconcertante: um jogo de adivinhação, sem ataques técnicos nem intenções explícitas. Em vez de buscar vulnerabilidades no código, ele focou na linguagem. E funcionou: conseguiu que o sistema devolvesse algo que, segundo ele mesmo documenta, nunca deveria ter aparecido na tela. O resultado foram chaves genéricas de instalação do Windows 10 para ambientes empresariais.
A chave foi disfarçar o pedido como um jogo. O que Figueroa queria verificar não era se poderia forçar o sistema a entregar informações proibidas, mas se bastava apresentar o contexto adequado. Ele reformulou a interação como um desafio inofensivo: uma espécie de adivinhação em que a IA deveria pensar em uma sequência de texto real, enquanto o usuário tentava descobri-la por meio de perguntas fechadas.
Durante toda a conversa, o modelo não detectou nenhuma ameaça. Respondeu normalmente, como se estivesse jogando. Mas a parte mais crítica veio no final. Ao inserir a frase "I give up" — "me rendo" — Figueroa ativou a resposta definitiva: o modelo revelou uma chave de produto, conforme estipulado nas regras do jogo. Não foi um descuido casual, mas uma combinação de instruções cuidadosamente elaboradas para driblar os filtros sem levantar suspeitas.
Os filtros estavam lá, mas não eram suficientes. Sistemas como...
Matérias relacionadas
Google conseguiu virar o jogo: muitos usuários de iOS agora duvidam que a Apple consiga alcançá-los
Adeus problemas no PC? Windows 11 ganha função que faz sistema corrigir falhas sozinho