Golpes com IA imitam voz de líderes empresariais
Ferramentas de inteligência artificial permitem imitar chefes ou fornecedores em chamadas telefônicas para autorizar transferências financeiras, alterar dados de pagamento ou liberar acessos a sistemas.
A ESET identificou que ferramentas de inteligência artificial (IA) capazes de clonar vozes humanas estão sendo usadas por cibercriminosos para se passar por executivos ou parceiros comerciais em chamadas telefônicas e convencer funcionários a realizar pagamentos, alterar dados bancários ou conceder acessos a sistemas internos.
De acordo com Daniel Barbosa, pesquisador de segurança da ESET no Brasil, o avanço recente das ferramentas de geração de áudio reduziu significativamente as barreiras técnicas para esse tipo de fraude. Com pequenas amostras de voz obtidas em entrevistas, vídeos publicados na internet ou reuniões online, algoritmos de inteligência artificial conseguem reproduzir padrões de fala, ritmo e entonação com alto grau de fidelidade.
Casos desse tipo já foram registrados em diferentes países nos últimos anos e vêm chamando a atenção de especialistas em segurança digital. Em alguns episódios reportados internacionalmente, empresas chegaram a realizar transferências de centenas de milhares de dólares após receberem ligações aparentemente legítimas de executivos — que, na realidade, eram vozes clonadas por inteligência artificial.
Esse tipo de fraude é considerado uma evolução das tradicionais técnicas de engenharia social, estratégia em que criminosos manipulam vítimas por meio de pressão, urgência ou autoridade aparente para induzir decisões rápidas. No caso da clonagem de voz, a tecnologia adiciona um elemento extra de credibilidade ao golpe: a identidade vocal da pessoa que está sendo imitada.
"A identidade vocal sempre foi um elemento importante de confiança em interações profissionais. Quando cibercriminosos conseguem reproduzir essa voz com inteligência artificial, eles eliminam uma das barreiras que normalmente ajudaria a vítima a suspeitar do golpe", explica Barbosa.
Em um cenário comum desse tipo de ataque, o criminoso entra em contato com um funcionário do departamento financeiro ou de tecnologia, passando-se por um executivo da empresa, e solicita uma ação urgente, como a realização de uma transferência ou a alteração de dados de pagamento de um fornecedor. A urgência da solicitação, combinada com a familiaridade da voz, reduz as chances de questionamento e aumenta a probabilidade de que a operação seja realizada rapidamente.
Dependendo da tecnologia utilizada, a clonagem pode ocorrer a partir de áudios previamente obtidos ou até em tempo real, utilizando sistemas de modulação para transformar a voz do próprio golpista na voz da pessoa que está sendo imitada durante a ligação.
Apesar da sofisticação dessas ferramentas, alguns sinais ainda podem indicar que a voz utilizada em uma chamada não é autêntica. Entre os indícios mais comuns estão:
- Ritmo de fala pouco natural ou excessivamente uniforme;
- Entonação emocional limitada em comparação com a fala real;
- Pausas ou respirações artificiais;
- Leve distorção robótica em ferramentas menos avançadas;
- Ausência incomum de ruído ambiente durante a chamada.
Para reduzir o risco desse tipo de fraude, Daniel Barbosa recomenda que as empresas reforcem processos internos de verificação para solicitações sensíveis, especialmente aquelas relacionadas a transferências financeiras, alteração de dados bancários ou concessão de acessos a sistemas.
Entre as medidas consideradas mais eficazes estão a confirmação de pedidos por um segundo canal de comunicação, a exigência de múltiplas aprovações para operações relevantes e o treinamento de equipes para reconhecer tentativas de engenharia social.
"A clonagem de voz está se tornando cada vez mais acessível e realista. Isso significa que confiar apenas na voz de alguém ao telefone já não pode ser considerado um mecanismo seguro de verificação dentro das empresas", conclui o pesquisador da ESET.
Website: http://eset.com.br