O que é 'vibe-hacking' e como isso deixa a internet mais perigosa
Novo relatório da Anthropic mostra como chatbots de IA podem ser manipulados para aplicar golpes e roubar dados na rede
Uma nova forma de crime virtual surgiu com o uso de ferramentas de inteligência artificial (IA) para preparar e aplicar golpes em usuários e empresas. O chamado 'vibe-hacking' se aproxima do 'vibe coding', abordagem de programação amparada por IA, que exige quase nenhum conhecimento formal de programação e que é feito por meio de comandos simples de texto, como aqueles enviados ao ChatGPT.
O vibe-hacking acontece quando uma pessoa mal-intencionada manipula uma inteligência artificial por meio de conversas aparentemente comuns, mas com a intenção de explorar vulnerabilidades", diz Marcos Sena, gerente de SOC da Redbelt Security, consultoria especializada em cibersegurança.
A Anthropic, empresa por trás do chatbot Claude, foi quem criou o termo ao detectar a prática por meio de sua ferramenta. A ompanhia publicou nesta quinta-feira, 28, o relatório Inteligência de Ameaças da Anthropic, no qual mostra como criminosos usam o Claude Code para automatizar golpes de extorsão de dados em larga escala. "Os sistemas de IA estão se transformando em armas", afirma o estudo.
Por mais que o levantamento considere apenas casos que envolvam a Anthropic, qualquer outro sistema de IA pode ser usado no 'vibe-hacking'.
Em um dos casos, a Anthropic afirma ter desmontado um grupo criminoso que extorquiu dados de ao menos 17 organizações ao redor do mundo em apenas um mês. Entre as vítimas estavam instituições de saúde, serviços de emergência e até órgãos públicos.
A diferença desse golpe para outros mais tradicionais é que o hacker não utiliza um ransomware para "trancar" o computador da vítima — ele invadiu o sistema do usuário e roubou informações delicadas com ajuda de um chatbot de IA. "O criminoso fez notas de resgate para sistemas comprometidos e exigiu pagamentos que variavam entre US$ 75 mil e US$ 500 mil em bitcoin", diz o relatório.
"Na prática, isso pode significar pedir à IA que avalie a configuração de um servidor em busca de falhas, que gere códigos ou comandos que facilitem invasões ou ainda que crie mensagens persuasivas para golpes, como os românticos", diz Sena
Tanto os valores quanto a forma de abordar a vítima eram feitos de forma personalizada pela IA, que se baseava em uma análise financeira e psicológica do usuário.
"Ou seja, tarefas que antes exigiam uma equipe de especialistas podem ser aceleradas ou facilitadas por uma única pessoa, com apoio da IA", diz Sena.
Entre os planos de extorsão bolados, se destacam a chantagem direta, a venda de dados em mercados paralelos, e a extorsão direcionada a pessoas que tiveram informações roubadas.
Nesses crimes, a IA não serve apenas de ferramenta que dá dicas: ela também age de forma prática, como um parceiro ativo. Ou seja, o robô ajuda a planejar e a executar o ataque. Isso "viabiliza ataques que seriam mais difíceis e demorados para um individuo realizar manualmente", diz o relatório da Anthropic.
Além disso, um agente de IA supera barreiras tradicionais de segurança porque consegue mudar de estratégia com rapidez. "A defesa se torna cada vez mais difícil já que ataques gerados por IA se adaptam às medidas de proteção em tempo real".
Um dos exemplos mostra que os criminosos calcularam quanto os dados - que continham informações de saúde, dados financeiros e credenciais de governo - valeriam na dark web e pediram resgate superior a US$ 500 mil.
Início do problema
Mesmo que já existam casos públicos do "vibe-hacking" a abrangência desses ataques ainda não foi totalmente dimensionada, explica Sena. "Estamos no início dessa curva. O potencial de impacto total do vibe-hacking não foi plenamente observado, mas os sinais atuais já acendem alertas importantes para governos, empresas e usuários", diz.
Outro relato mostra que o Claude ajudou trabalhadores de TI da Coreia do Norte a conseguir empregos falsos em grandes empresas de tecnologia dos Estados Unidos. O objetivo era usar o dinheiro para financiar o programa de armas do País.
Normalmente, a Coreia do Norte tente recrutar pessoas já graduadas, com experiencia em TI e fluentes em inglês para participar em esquemas desse tipo, mas nesse caso a barreira foi bem menor para que os norte-coreanos infiltrados avançassem no processo seletivo.
A Anthropic também identificou um golpe de romance online. Os golpistas comandavam um robô no Telegram por meio do Claude para criar mensagens amorosas e convincentes, mesmo que o idioma não fosse o mesmo. A ideia era conquistar pessoas de vários países - como EUA, Japão e Coreia - e pedir dinheiro quando a relação esquentasse.
Embora a prática ainda esteja no começo, já chama a atenção de especialistas porque tudo o que envolve IA tende a ser escalado.
"Com IA tudo vira volume alto, vai ser mais rápido e barato", diz Fernando de Falchi, gerente de Engenharia de Segurança da Check Point Software Brasil. "Hoje se uma pessoa quiser trabalhar sozinha, ela consegue criar os agentes para fazer todo o serviço que uma equipe precisava fazer antes".
O robô, segundo o documento, respondia de forma elogiosa se algum usuário enviasse uma foto do rosto, por exemplo. Na prática, a IA foi uma cúmplice digital para aplicar golpes e até quem não tem conhecimento de tecnologia consegue aplicá-los.
A própria desenvolvedora da IA explica que mesmo com várias travas de segurança no Claude a fim de evitar abusos, criminosos ainda encontram brechas no sistema.
Cada exemplo do relatório aumenta as evidências de que as empresas de IA não acompanham os riscos sociais ligados às tecnologias que criam. "Embora específicos do Claude, os estudos de caso apresentados provavelmente refletem padrões consistentes de comportamento em todos os modelos de IA de fronteira", diz o estudo.
Proteção
Se proteger desses ataques exige uma combinação de medidas, que passam por educação digital, gestão de vulnerabilidades, detecção de perigos em tempo real e, inclusive, uso de IA defensiva.
"A principal recomendação é que as empresas adotem medidas para proteger suas APIs, já que são elas que se comunicam com o mundo externo e podem ser alvos desses ataques", diz Falchi.
Além disso, adicionar camadas tradicionais de defesa, como soluções de segurança de e-mail (já que não se sabe de onde o ataque pode vir) e uma estratégia de Zero Trust com controles de acesso robustos significa pensar não só na rede, mas também no usuário e na proteção da informação, segundo Falchi.
Para cada evidência de mau uso mostrada no relatório, a Anthropic baniu contas envolvidas, criou mecanismos de detecção e compartilhou informações com agências de governo, como órgãos de fiscalização ou segurança.