PUBLICIDADE

A inteligência artificial está se tornando uma forma de automatizar o plágio?

A OpenAI, que criou o ChatGPT, já vem reconhecendo a tendência e está correndo para evitar uma onda de "plágio assistido por IA"

30 jan 2023 - 05h00
(atualizado às 17h28)
Compartilhar
Exibir comentários
Inteligência artificial pode estar facilitando para quem deseja plagiar conteúdos
Inteligência artificial pode estar facilitando para quem deseja plagiar conteúdos
Foto: Unsplash

Um processo da Getty Images contra geradoras de inteligência artificial (IA) por uso indevido de imagem; artistas entrando na justiça por ilustrações utilizadas pelas mesmas empresas sem o devido crédito; alunos "colando" em avaliações com a ajuda do ChatGPT. Há alguns anos, problemas assim não faziam parte do nosso dia a dia. No entanto, cada vez que a tecnologia de aprendizado avança, esses dilemas vão se tornando mais comuns. Afinal, será que estamos vivendo em um momento de plágio auxiliado por ferramentas inteligentes?

A OpenAI, que criou o ChatGPT, já reconheceu que a tendência infestou a web e está correndo para evitar uma onda de "plágio assistido por IA", segundo o veículo The Guardian. Scott Aaronson, pesquisador convidado da OpenAI, chegou a comentar em uma palestra na Universidade do Texas: "Queremos que seja muito mais difícil pegar uma saída de GPT e passá-la como se viesse de um ser humano". 

Mas a solução não é simples. Artistas argumentam que estão sendo plagiados por essas ferramentas e dizem que suas criações foram utilizadas como modelo de inspiração. Ou seja, as IAs podem estar copiando seus "estilos", mas não fazem uma cópia idêntica, o que torna a questão ainda mais complexa.

Atualmente, a autoria para processos criados via IA, em aplicações como ChatGPT e Dall-e é dada ou para quem fez a solicitação ou para a própria ferramenta. O primeiro é o caso do livro infantil "Alice and Sparkle", que foi criado no ChatGPT e teve o crédito dado ao designer Ammar Reshi. Ainda nesta semana, o The Guardian também publicou que revistas científicas proibiram a listagem do ChatGPT como coautor em artigos.

Humanos criam, IAs copiam?

Para a doutoranda em astrofísica do Black Hole Group, da Universidade de São Paulo (USP) que estuda buracos negros e inteligência artificial, Roberta Duarte, o problema do plágio com IA é que, de fato, um grande número de dados usados por ela é de autoria humana. Ela lembra que, na vida acadêmica, é comum que sejam solicitadas as referências utilizadas para um trabalho, e que isso deve ser cada vez mais comum daqui para frente nessas plataformas. 

Para o pesquisador Yuri Lima, a IA facilita a criação de conteúdo por pessoas que não necessariamente são especialistas em áreas como design ou música
Para o pesquisador Yuri Lima, a IA facilita a criação de conteúdo por pessoas que não necessariamente são especialistas em áreas como design ou música
Foto: Unsplash

Duarte acredita, portanto, que produtos gerados por IA terão que, cada vez mais, "adicionar referências". "No caso das deepfakes, que também acenderam a discussão sobre inteligência artificial, algumas medidas foram tomadas, como algoritmos capazes de reconhecer um vídeo falso, e nas redes sociais, bots capazes de reconhecer fakes. Provavelmente algo semelhante vai acontecer com chatbots de IA, como uma espécie de copyright de imagens de artistas, por exemplo", explica a astrofísica. 

Ferramentas como o ChatGPT não informam de onde tiraram suas referências para o texto gerado. Ele sai, basicamente, de um banco de dados de tudo que está "na web". Que pode ser falso, verdadeiro ou duvidoso.

Isso também dificulta, de acordo com o professor Fernando Osório, do Centro de IA "C4AI", da USP, para o usuário saber o quanto é possível confiar naquela informação — uma vez que o nosso julgamento sobre a veracidade de uma informação passa pelo reconhecimento da fonte que está transmitindo a mensagem.

"Eu acredito sim que a inteligência artificial pode automatizar o plágio porque os textos gerados por IA são textos que foram retirados de um aprendizado da internet. Basicamente você está buscando um conteúdo que humanos escreveram previamente. Nesse sentido, o problema é que ela vai além do 'copy and paste' (copiar e colar)", argumenta Osório. 

O mesmo é defendido por Yuri Lima, CEO da LABORe e pesquisador do Laboratório do Futuro-COPPE/UFRJ. Ele lembra que as ferramentas de IA facilitam a criação de conteúdo por pessoas que não necessariamente são especialistas em determinadas áreas como design ou música.

"Com isso, a criação de conteúdo tende a aumentar e, se as ferramentas continuarem sem a transparência com relação às fontes, o plágio também pode crescer", destaca. 

Nesse caso, pessoas estariam copiando da IA conteúdos já desenvolvidos primeiramente por outras. Ou seja, humanos copiando humanos. 

Detectores de plágio: funcionam?

As acusações de plágio que as IAs têm sofrido estão vindo de forma pontual pelos próprios autores que se sentem plagiados pelas plataformas. No entanto, já existem detectores de plágio, como o GPT 0 e outros, alguns deles até pagos, segundo explica Osório.

"Isso é um problema porque gera exploração e não sabemos também a qualidade. E não sei até que nível eles [detectores] funcionam. Eles dão uma porcentagem do quanto humano é o texto, segundo alguns critérios, como forma de expressar emoções, por exemplo. Não sabemos o quão exato é isso", diz o professor. 

O Detector GPT-2 da OpenAI também foi pensado para identificar textos feitos por IA. Ele basicamente compara o que foi escrito com um banco de dados de textos escritos tanto por humanos quanto por máquinas. Assim, se vende como um mecanismo altamente eficaz para a identificação de escrita gerada via computadores. 

Do ponto de vista jurídico, os pesquisadores concordam que cada plataforma está lidando de uma forma com o problema, e em geral, ainda precisamos avançar para garantir uma boa resolução legal e ética em relação a essas tecnologias. 

Quais são as limitações da IA?

Robôs esbarram em alguns problemas lógicos, por exemplo
Robôs esbarram em alguns problemas lógicos, por exemplo
Foto: Unsplash

Pode parecer que as IAs vão roubar nossos empregos e fazer tudo o que realizamos de uma forma melhor. Mas não é bem assim. Duarte explica que inteligência artificial ainda encontra barreiras no pensamento lógico. 

Um exemplo é: se mostrarmos cenas de uma bola caindo no chão, a inteligência artificial é capaz de aprender padrões e entender que tudo que é solto no ar, cai. Porém, ela tem dificuldade em associar isso à lógica: a bola cai por causa da força gravitacional que a Terra exerce nela.

A pesquisadora também lembra que esses sistemas de aprendizado de máquina contam com dados humanos, ou seja, a criatividade ainda é humana. 

O problema mais urgente, hoje, seria o de introduzir cada vez mais sistemas de inteligência artificial com  que seria a "ética" humana. "É necessário que todos que modelam esses algoritmos tenha uma bagagem de ética em IA. Precisa ter mais foco para essa área e também deixar em evidência todos os problemas que podem ser associados ao modelo. Algumas empresas já liberam algoritmos de forma limitada para evitar esses problemas", diz Duarte.

E completa: "Um exemplo é a DALL-E que era um algoritmo limitado no passado, com poucos usuários, mas na versão DALL-E 2, os problemas foram resolvidos. Uma frase que gerava uma imagem problemática passou a gerar outras imagens".

O debate público sobre o tema deverá trazer cada vez mais questões como essas e pressões também deverão surgir para as ferramentas. Sem dúvidas, estamos entrando em uma nova realidade informacional, educacional e tecnológica, e serão necessários ajustes éticos, jurídicos e comportamentais diante dela.

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade
Publicidade