0

A falsificação ficou perfeita

Eleitor: na próxima eleição, não acredite no que você vê ou ouve nas redes. Falsificar virou brincadeira de criança

12 jul 2019
05h11
  • separator
  • 0
  • comentários

Na terça-feira, 9, o GitHub baniu de seu site o código do programa DeepNude. E, sim, para quem não vive nas profundezas da internet, a frase requer explicação. Porque, por trás dela, está provavelmente a maior ameaça ao próximo ciclo eleitoral do mundo. Uma ameaça que vem se insinuando faz tempo, já meio que deu as caras até em pleitos aqui do Brasil e parece ter chegado, este ano, à maturidade. Será assustador.

Deep fake de Zuckerberg mostra ele falando que rouba e controla dados das pessoas
Deep fake de Zuckerberg mostra ele falando que rouba e controla dados das pessoas
Foto: Bruno Romani/Reprodução / Estadão

GitHub é uma empresa da Microsoft. Serve como o repositório para o código de softwares de escritos de forma colaborativa. A última versão está sempre lá, quem ao redor do mundo trabalha em novidades troca ideias por ali, e como todos sabem o que os outros fazem, fica mais fácil organizar o trabalho de programação. Ao longo do último mês, aportaram no GitHub algumas versões do software DeepNude.

O nome - DeepNude - já insinua do que se trata. Escrito inicialmente por um programador anônimo, o app usa uma tecnologia chamada redes neurais artificiais para pegar a fotografia de uma mulher - qualquer mulher - e a partir dela, em poucos segundos, produzir uma imagem da moça nua. Redes neurais replicam o funcionamento do cérebro, permitindo que o software aprenda a partir de exemplos. É uma das formas de inteligência artificial. O DeepNude é de uma simplicidade atroz. Importe a foto, ele produz a imagem em segundos. De um realismo que não basta dar zoom para encontrar sinais de edição. É aquela mulher. E ela está nua.

Não, não funciona com homens.

Quando a revista eletrônica Vice anunciou, há pouco mais de um mês, que este app existia, o programador anônimo tomou um susto com a repercussão negativa, teve uma crise de consciência e o retirou do ar. O problema é que para alguém minimamente experiente, a tecnologia é relativamente simples. Inúmeros clones surgiram em dias. Do GitHub, foram banidos. Mas estão por aí, nos quatro cantos da internet.

Vai fazer dois anos, a Adobe fez a primeira demonstração de um aplicativo chamado VoCo. Alimente-o com gravações da fala de qualquer pessoa que ele analisa. Aí escreva um texto - o software faz com que aquela voz, com sotaque e maneirismos, narre a frase. Foi apresentado ao público, mas nunca lançado. A empresa por trás do Photoshop sabe que o terreno é perigosíssimo. O documentarista amador poderá colocar a voz gutural de Paulo César Pereio narrando seu filmete no YouTube. E a quantidade de áudios vazados do WhatsApp de políticos mil vão pipocar por aí, de forma convincente, falando sempre as maiores atrocidades, ou cometendo desvios feios, porém discretos o suficiente para que pareçam críveis.

Por enquanto, só se sabe do software da Adobe. Mas, assim como aquele app que produz a fotos de moças nuas, nada impede um programador mais habilidoso de construir sua própria versão.

No conjunto, o resultado deste tipo de programa atende pelo nome Deep Fake. A falsificação profunda. Na eleição passada, circulou nos últimos dias o vídeo pornô de um político paulista com toda pinta de deep fake. A tecnologia de um ano atrás ainda permitia que se percebesse uns momentos nos quais o rosto congela sem emitir qualquer movimento. Os vídeos deep fake que surgiram nos últimos meses têm qualquer coisa de extraordinário. A presidente da Câmara dos Deputados dos EUA, Nancy Pelosi, falando como se estivesse bêbada. Jim Carrey, o ator, substituindo Jack Nicholson em O Iluminado. Ou então Jon Snow, o personagem de Game of Thrones, se desculpando pelo roteiro ruim da última temporada.

Eleitor: na próxima eleição, não acredite no que você vê ou ouve nas redes. Falsificar virou brincadeira de criança.

Estadão
  • separator
  • 0
  • comentários
publicidade