PUBLICIDADE

Drauzio Varella vendendo colágeno? Como deep fakes estão sendo usados para golpes

Com o uso de Inteligência Artificial (IA) se pode facilmente criar e adulterar áudios e vídeos com cada vez mais qualidade e semelhança ao original.

1 dez 2023 - 11h31
(atualizado às 13h19)
Compartilhar
Exibir comentários
Em vídeo que circulava no TikTok, deep fake de Drauzio Varella parece estar incentivando compra de produto
Em vídeo que circulava no TikTok, deep fake de Drauzio Varella parece estar incentivando compra de produto
Foto: BBC News Brasil

Aquele velho ditado "só acredito vendo" já não é o bastante nos dias atuais quando, graças ao uso de Inteligência Artificial (IA), pode-se facilmente criar e adulterar áudios e vídeos com cada vez mais qualidade e semelhança ao original. É preciso desconfiar dos conteúdos encontrados na internet e recebidos por aplicativos de mensagens.

Prova disso é um vídeo em que o médico Drauzio Varella aparece supostamente indicando gotinhas milagrosas para manter a pele jovem e bonita, que passou a circular no TikTok há pouco mais de uma semana.

No vídeo, de quase 30 segundos, o médico aparece - em vários momentos sem que se veja a boca dele - narrando os benefícios do suposto medicamento enquanto fotos de pessoas famosas, que supostamente usam o produto, aparecem na tela.

Apesar da voz ser muito semelhante à de Drauzio Varella, o vídeo é falso e se trata de uma montagem com uso de IA para clonar a voz do médico, que é colocada em um vídeo produzido por ele, mas que originalmente abordava outro assunto.

E essa não foi a primeira vez. Por constantemente ter a sua a imagem atrelada a indicação de um remédio ou propaganda de algum produto, o médico publicou um vídeo em seu Instagram oficial explicando a situação.

"Toda hora aparece na internet a minha imagem ou alguma coisa que eu teria dito em defesa de um tratamento especial ou de um medicamento para resolver problemas de saúde e você é jogado para um site onde te vendem alguma coisa. São falsários, gente que não presta. Um bando de bandidos que usa a imagem dos outros para tentar enganar as pessoas", explicou o médico.

"As coisas vão ficando mais sofisticadas, às vezes eles pegam uma frase que eu disse em um contexto que não tem nada a ver com aquele e recortam essa frase como se eu estivesse defendendo essas porcarias que eles vendem, que a gente não tem nem ideia do que é. Infelizmente não vai acabar e até vai piorar com a Inteligência Artificial, eles chegam a imitar a minha voz, eu defendendo um remédio qualquer", acrescentou na publicação.

Mariana Varella, filha do médico e editora-chefe do Portal Drauzio Varella, ressalta que o pai não faz propagandas de medicamentos, que Drauzio fica preocupado com esses conteúdos usando sua imagem e que esse é um problema que ele considera de saúde pública.

"O problema é que tem pessoas acreditando, comprando produtos totalmente desconhecidos. Não sabe o que tem dentro, qual a segurança dessas medicações, quem está vendendo. A gente ainda não entrou com processo nem nada disso, mas estamos estudando com os nossos advogados qual vai ser a melhor estratégia para isso", diz Mariana.

Após a BBC entrar em contato com o TikTok, o vídeo citado pela reportagem e o perfil que havia feito a publicação foram tirados do ar pela plataforma. No entanto, vários outros com o mesmo teor permanecem disponíveis aos usuários.

Questionado sobre os conteúdos inverídicos publicados, o TikTok explicou que usa uma combinação de tecnologia e profissionais para detectar aqueles que possam violar as diretrizes de comunidade. E que os conteúdos são removidos assim que identificados.

"Nossas políticas de mídia sintética e manipulada deixam claro que não permitimos mídia sintética que contenha a imagem de qualquer pessoa real que não seja pública e não permitimos mídia sintética de figuras públicas se o conteúdo for usado para endossar ou violar qualquer outra política", diz nota enviada pela plataforma.

E acrescentou que vem testando ferramentas que permitem ao usuário identificar quando um conteúdo é criado por inteligência artificial.

"Começaremos a testar um rótulo que indica quando um conteúdo é 'gerado por IA' que, eventualmente, planejamos aplicar automaticamente ao conteúdo que detectamos ter sido editado ou criado com inteligência artificial. Para aumentar a clareza em relação aos produtos do TikTok alimentados por IA, também renomeamos todos os efeitos de inteligência artificial do TikTok para incluir explicitamente 'IA' em seu nome e no rótulo de efeito correspondente, e atualizamos nossas diretrizes para que os criadores do Effect House façam o mesmo."

Uso de IA para clonar a voz

Conteúdos como esse são chamados de deep fake. Eles são produzidos em softwares que usam IA para recriar a voz de pessoas, trocar o rosto em vídeos e sincronizar movimentos labiais e expressões.

Diogo Cortiz, professor da PUC-SP e pesquisador do NIC.br (Núcleo de Informação e Coordenação do Ponto BR) explica que, com o avanço da tecnologia e da Inteligência Artificial, é cada vez mais comum surgirem programas que conseguem reproduzir a voz de uma pessoa, criando frases completas e imitando até mesmo os trejeitos de fala dela e sotaque, caso tenha, em poucos minutos.

Se tratando de pessoas famosas ou que tenham conteúdos disponíveis na internet, como no caso de Drauzio Varella, é ainda mais fácil fazer essa clonagem, já que a IA é usada para aprender com esses áudios e gerar novos arquivos com a voz clonada.

"O primeiro passo é ensinar a voz para inteligência artificial, então você faz ela escutar alguns minutos. Quanto mais dados você tiver, melhor o resultado e a partir disso você pode escrever um texto - e a inteligência artificial vai recriar um áudio, com a voz da pessoa, falando aquilo que você escreveu", explica Cortiz.

Mas mesmo quem não é famoso ou não têm conteúdos disponíveis na internet também está sujeito a ter a voz clonada, já que para isso é necessário apenas poucos segundos de uma voz, como, por exemplo, um áudio enviado por aplicativo de mensagem.

Distinguir se um conteúdo é verdadeiro ou criado pela tecnologia, segundo o especialista, é o desafio que o setor tem pela frente. Além disso, pode demorar para ser criada e regulamentada uma maneira de esses conteúdos serem diferenciados dos originais.

Vídeo dá a entender que atrizes, cantoras e apresentadoras famosas usam suplemento e que produto tem aprovação da Anvisa
Vídeo dá a entender que atrizes, cantoras e apresentadoras famosas usam suplemento e que produto tem aprovação da Anvisa
Foto: BBC News Brasil

"Existe um debate enorme a nível internacional sobre como fazer para identificar esse tipo de conteúdo sintético [criado por IA]. Uma estratégia é colocar uma marca d'água nesse conteúdo, mas não aquela marca visível ao olho humano, mas sim uma identificada pelos algoritmos, fazendo com que as plataformas consigam fazer esse rastreamento e não permita a disseminação de conteúdos falsos", explica.

Especialistas ouvidos pela BBC são unânimes em dizer que é preciso ter cautela quanto ao avanço dessa tecnologia e que as regras para o seu uso deveriam existir global e localmente. Também é preciso encontrar um equilíbrio entre promover a inovação e proteger os interesses públicos para que essa tecnologia não se torne uma arma nas mãos de golpistas e até mesmo de disseminadores de notícias e informações falsas.

Projetos em tramitação

O projeto de lei 2338/23 de autoria do senador Rodrigo Pacheco (PSD/MG) tramita no Senado e dispõe sobre o uso da Inteligência Artificial no país e quais diretrizes deverão ser seguidas.

Entre seus fundamentos, o projeto visa garantir a "confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação", garantindo que o usuário saiba claramente quando ele está interagindo ou consumindo um conteúdo criado com o auxílio dessa tecnologia.

"O uso de IA precisa ser analisado com cautela e de forma ampla, analisando os riscos que essa tecnologia pode gerar nos mais diversos setores como saúde, transporte e administrativo, por exemplo. Para se criar regulamentações é necessário olhar para a tecnologia como um todo e ter dados que comprovem que a IA é confiável", diz Estela Aranha, secretária de Direitos Digitais do Ministério da Justiça e Segurança Pública.

O jornalista William Bonner, âncora do Jornal Nacional, também foi vítima de deep fake
O jornalista William Bonner, âncora do Jornal Nacional, também foi vítima de deep fake
Foto: BBC News Brasil

Mas esse não é o único projeto de lei que trata do assunto que vem sendo analisado. O PL 4025/23, do deputado federal Marx Beltrão (PP/AL), exige autorização expressa das pessoas envolvidas para o uso de imagens e de obras por sistemas de inteligência artificial (IA).

O documento aborda o uso dessa tecnologia para recriar imagens e a voz de pessoas falecidas e propõe que esse mecanismo só poderá ser usado com autorização de parentes próximos, como cônjuge, filhos e pais.

No caso das obras, o texto garante que cabe ao autor autorizar a utilização do conteúdo para treinamento de sistemas de IA e estabelece que obras produzidas com o uso dessa tecnologia não gera direitos autorais.

Para Cortiz, estabelecer regras para controlar o uso desses programas é uma tarefa complexa, uma vez que a própria tecnologia da IA ainda passa por transformações.

"Hoje há um desafio não só de regulação, mas um desafio técnico no desenvolvimento desse tipo de método para marcação e identificação desses conteúdos criados por IA que funcione em todas as modalidades - áudio, vídeo, texto e imagem - e que seja reconhecido em todas as plataformas. Isso é um desafio global", diz o professor.

Gustavo Tadeu Zaniboni, presidente da Coordenação de Inteligência Artificial da Associação Brasileira de Governança Pública de Dados Pessoais, analisa que mesmo com a regulamentação, as deep fakes não deixarão de existir e já fazem parte do mundo atual.

"A pessoa que quer usar a IA para aplicar golpes e enganar outras pessoas vai continuar fazendo. O uso da marca d'água não vai resolver porque essas pessoas vão arrumar uma maneira de burlar isso", diz.

Ainda segundo Zaniboni, uma maneira eficaz de inibir as deep fakes é a identificação e punição de quem produz, vincula e até mesmo compartilha esse tipo de conteúdo.

"No vídeo do Drauzio Varella, por exemplo, podemos enxergar indícios de estelionato e uso da imagem dele sem autorização. Mas precisamos criar punições próprias para esse tipo de situação que usa a ferramenta da inteligência artificial. Para punir essas pessoas, as solicitações de dados na hora de abertura de uma conta em um aplicativo devem ser mais rigorosas e obrigatórias", acrescenta.

Drauzio não foi o único

Celebridades como Ivete Sangalo, Ana Maria Braga e Xuxa também foram vítimas de deep fake e tiveram suas vozes clonadas e inseridas em vídeos em que supostamente elas indicam colágenos para a pele.

Nesses casos, a tecnologia foi usada também em fotos para envelhecê-las, deixando as personalidades com mais rugas e marcas de expressão e, assim, fazer um comparativo mostrando que o produto realmente funcionaria.

Em outra situação, o jornalista William Bonner, âncora e editor-chefe do Jornal Nacional, também foi vítima de deep fake.

Em um vídeo de poucos segundos, que circula nas redes sociais, o âncora aparece dizendo: "O encontro de dois bandidos". A gravação corta para imagens do presidente Lula e seu vice, Geraldo Alckmin, se abraçando, com a narração do jornalista: "Perdão, imagem errada. A imagem seria de outro ladrão, digo, de um ladrão de verdade".

Também foi comprovado que o material se trata de uma montagem feita com o uso dessa tecnologia.

BBC News Brasil BBC News Brasil - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização escrita da BBC News Brasil.
Compartilhar
TAGS
Publicidade
Publicidade