Ferramentas de IA são eficazes para detectar conteúdo sintético? Veja o que dizem especialistas
PROFESSORES EXPLICAM COMO A VERIFICAÇÃO DE VÍDEOS E IMAGENS FEITOS COM INTELIGÊNCIA ARTIFICIAL TEM CORRIDO PARA ACOMPANHAR A EVOLUÇÃO DA TECNOLOGIA
O uso de ferramentas que afirmam detectar conteúdos gerados por inteligência artificial tem se tornado cada vez mais comum quando se faz necessário verificar se um vídeo, áudio ou foto é autêntico ou não. Embora sejam treinados para classificar materiais como falsos ou verdadeiros, os detectores devem ser utilizados com cautela, pois podem apresentar resultados imprecisos devido à velocidade que as tecnologias de geração artificial têm se aperfeiçoado.
A maneira como ferramentas de IA são utilizadas para detectar o que é real do que é sintético pode gerar controvérsias, inclusive em âmbito internacional. Isso ocorreu recentemente na Venezuela, quando o ministro das Comunicações do país, Freddy Ñáñez, acusou os EUA de utilizarem inteligência artificial em um vídeo que mostra um ataque a uma embarcação no Caribe.
Para embasar a acusação, Ñáñez compartilhou o resultado de uma consulta feita no Gemini, o chatbot de IA Google, no qual questionou se o vídeo havia sido gerado por inteligência artificial. A resposta, em inglês, indicava que era muito provável que o vídeo tivesse sido criado usando IA. No entanto, não há outras evidências que comprovem a falsidade das imagens divulgadas por Donald Trump e seu secretário de Estado, Marco Rubio, nas redes sociais.
O Verifica entrevistou especialistas em inteligência artificial para explicar se ferramentas como Gemini e ChatGPT são adequadas para identificar se vídeos, imagens ou áudios são autênticos, e se é possível confiar nos resultados que os detectores comerciais oferecem.
É possível identificar um conteúdo criado por IA?
Reconhecer se um texto, imagem ou vídeo foi criado por inteligência artificial tem se tornado uma tarefa cada vez mais desafiadora devido à velocidade com que geradores de conteúdo sintético têm se aprimorado.
Ao Verifica, o professor e pesquisador em processamento de linguagem natural do Insper Tiago Tavares explicou que detectores de texto tentam reconhecer padrões de palavras e construções típicas de chatbots, como o ChatGPT. No entanto, essa estratégia costuma falhar pois, segundo ele, os modelos estão se aproximando cada vez mais dos modos de produção humana.
No caso de imagens e vídeos, a detecção envolve o treinamento de máquinas para classificar materiais como verdadeiros ou falsos. Essas ferramentas analisam pistas que ajudam a distinguir conteúdos autênticos de mídias fabricadas. De acordo com Tiago, imagens em que tudo está muito perfeito, sem ruídos naturais, são um dos indícios utilizados para indicar que o conteúdo pode ter sido gerado por inteligência artificial.
Embora essas ferramentas consigam apontar evidências de manipulação, o professor apontou que elas apresentam taxas de erro. Segundo Tavares, em testes de laboratório voltados à detecção de deepfakes em vídeo, por exemplo, os sistemas têm acertado cerca de 85% das vezes. "É uma taxa de erro ainda muito grande para a gente confiar cegamente", avaliou.
De acordo com Anderson Soares, que é coordenador científico do Centro de Excelência em Inteligência Artificial da Universidade Federal de Goiás (UFG), não há registros na ciência de que alguém tenha conseguido identificar, com certeza, um texto produzido por inteligência artificial.
Segundo o especialista, utilizar uma IA generativa, como o ChatGPT, para esse tipo de detecção não é apropriado, pois se o modelo já tiver acessado conteúdos semelhantes, poderá afirmar que o material submetido foi criado artificialmente por uma IA.
"Um exemplo didático disso é que se você pegar um texto da Bíblia e perguntar se foi escrito por uma IA, ele [o chatbot] vai dizer que sim. E por quê? Porque trechos desse documento foram usados no treinamento da ferramenta", explicou.
Soares acrescentou que os modelos de linguagem são treinados com grandes volumes de dados e só conseguem gerar conteúdo porque já tiveram contato com algo semelhante. Por isso, quanto mais informações recebem, maior é sua capacidade de criar variações desses conteúdos.
IA vs. ferramentas de detecção
Especialistas entrevistados pelo Verifica compararam o que ocorre entre detectores e ferramentas de criação de mídias sintéticas a uma corrida. As IAs generativas, tecnologias capazes de produzir conteúdo original como textos, imagens, vídeos, áudios e músicas, têm aprimorado constantemente a qualidade do material gerado e eliminado traços que antes permitiam sua identificação por detectores.
Nesse contexto, o professor e pesquisador em processamento de linguagem natural do Insper lembrou que há algum tempo imagens e vídeos gerados por IA ainda deixavam rastros perceptíveis de sua origem artificial. Era comum, por exemplo, ver fotos de pessoas com seis dedos ou mais, além de outras imperfeições visíveis em partes do corpo humano.
Segundo Tavares, esses traços típicos têm desaparecido e dificultado a diferenciação entre o que foi criado por uma máquina e o que foi feito por humanos.
"Quando a gente treina a IA para escrever, fazer fotos e vídeos, é semelhante a treinar uma pessoa, mas com muito mais treino e muito mais dados. Aos poucos, a IA vai criando artefatos de mídia que emulam muito bem o que um humano faria", disse o professor.
Para Tavares, diante dos avanços das ferramentas de IA, os detectores de imagens e vídeos fabricados que funcionam hoje podem não funcionar amanhã, pois as imperfeições vão ser corrigidas aos poucos.
"Tentar fazer uma máquina que vai detectar mídias falsas vai ser sempre uma corrida", pontuou.
Conforme explicou Tavares, os LLMs, também chamados de grandes modelos de linguagem, que são treinados com grandes volumes de dados para gerar textos, imagens e conversas e que alimentam assistentes como o ChatGPT e o Gemini, não possuem o que chamamos de "modelo de mundo".
Ou seja, diferente dos seres humanos, eles não raciocinam sobre o conteúdo que processam. Em vez disso, operam com base em probabilidades aprendidas durante o treinamento.
"Eles não são feitos para tomar decisões como: será que este texto, este vídeo, esta imagem ou estes sons são falsos ou não?", disse o professor.
Segundo Tavares, atualmente há sistemas que querem usar modelos como o ChatGPT para fazer classificação de imagens, mas essas ferramentas ainda não conseguiram atingir o nível de refinamento necessário para detectar se uma imagem foi feita por IA, por exemplo.
"A classificação que os LLMs fazem costuma ser só porque aquele artefato de mídia que você está usando é muito semelhante a algum que ele já trabalhou na base de treino dele", observou.
O professor acrescentou ainda que, mesmo quando os chatbots de IA recebem um problema que nunca viram antes, eles ainda assim dão uma resposta.
"Eles vão dizer o que acham mais provável para continuar aquela conversa", comentou. "Talvez, pelo sorteio das chances, ele tenha dito que aquela imagem [o vídeo que mostra um ataque americano a uma embarcação venezuelana] é fake, mas não há nenhum motivo para isso ser considerado confiável".
Manipulação de imagens é anterior à IA, que facilitou fabricação
A circulação de imagens e vídeos manipulados nas redes sociais já ocorria antes das IAs generativas, o que esses modelos fizeram foi apenas tornar a produção desse tipo de conteúdo mais fácil e acessível. É o que explicou a professora Nina Hirata, do Departamento de Ciência da Computação do Instituto de Matemática e Estatística da Universidade de São Paulo (USP).
"De certa forma, a gente não tem uma referência do que são imagens naturais, que não passaram por alterações digitais", afirmou.
Segundo Hirata, a fronteira entre imagens reais e fabricadas não é clara, porque muitas já eram alteradas antes mesmo das IAs com o uso de ferramentas como o Photoshop.
"A gente não consegue simplesmente buscar vídeos ou imagens na internet e dizer: 'Ah, essas são verdadeiras, sem modificação, e essas são geradas por IA', porque no meio do caminho tem as alteradas também, com Photoshop e outras técnicas", disse.
"Isso também é um ingrediente importante para mostrar que essa coisa de falsificação, de geração de imagens com o propósito de enganar alguém, não é algo exclusivo da IA, isso já acontecia antes. A diferença é que a IA possibilitou fazer isso em grande escala", pontuou Hirata.
Em meio à circulação de conteúdos fabricados e a oferta de ferramentas comerciais que afirmam identificar materiais gerados por inteligência artificial, os especialistas ouvidos pelo Verifica pontuaram que é importante ter conhecimento das limitações dessas tecnologias.
Eles ressaltaram que os resultados fornecidos por essas plataformas não devem ser considerados totalmente confiáveis e recomendaram sempre checar as informações em outras fontes seguras, como veículos de imprensa.
De acordo com Soares, as ferramentas que afirmam identificar se um conteúdo foi gerado por IA geralmente não divulgam suas metodologias, o que impede o usuário de identificar quando o resultado pode ser duvidoso. Por isso, ao utilizar as ferramentas, Soares recomenda se certificar de que o site acessado pertence, de fato, a uma empresa.
"A empresa também tem uma certa credibilidade a zelar, tem o que perder se ela errar, então, eu acho que essa é uma diferença super importante no uso dessas ferramentas", comentou.
O Verifica, por exemplo, costuma usar em suas checagens a ferramenta InVid, desenvolvida por um consórcio de universidades e veículos de imprensa como a AFP. Também utilizamos a SynthID, criada pelo Google para identificar conteúdo sintético gerado com a tecnologia da empresa.