PUBLICIDADE

ChatGPT | IA não deve ser autora de estudos científicos, diz Nature

Após a popularização de ferramentas com IA, como o ChatGPT, a revista Nature defende que a tecnologia não pode ser considerada autoras de estudos científicos

26 jan 2023 - 14h01
(atualizado às 16h34)
Compartilhar
Exibir comentários

A popularização do modelo de inteligência artificial ChatGPT, desenvolvido pela empresa norte-americana OpenAI, acendeu um sinal de alerta vermelho na comunidade científica — afinal, a ferramenta já foi listada até como autora de estudos acadêmicos. Diante do atual cenário, uma das revistas mais conceituadas no ramo, a Nature, anunciou, nesta semana, que uma IA não pode e nem será considerada uma autora dentro de suas publicações.

"À medida que os pesquisadores mergulham no admirável mundo novo dos chatbots avançados de IA, os editores precisam reconhecer seus usos legítimos e estabelecer diretrizes claras para evitar abusos", afirma a Nature. Neste ponto, a revista defende que é necessário reconhecer os limites, como propõe.

Agora, a expectativa é que outras publicações relevantes na produção científica sigam a mesma posição. O interessante é que a Nature não nega a possibilidade de uso da IA nos trabalhos, mas defende a existência exclusiva de autores reais, já que, em casos de erros ou falhas, devem ser responsabilizados. Culpar uma IA, como ChatGPT, não faz sentido, porque não há compromisso explícito com a busca pela verdade.

Entenda o problema do efeito ChatGPT na comunidade científica

Foto: Reprodução/OpenAI (modificada) / Canaltech

Segundo levantamento da Nature, o ChatGPT já foi incluído como autor em um preprint — estudo científico ainda não revisado por pares — publicado na plataforma MedRxiv em dezembro do ano passado. Além disso, foi creditado como coautor em artigos das revistas Nurse Education in Practice e Oncoscience.

"A grande preocupação na comunidade de pesquisa é que estudantes e cientistas possam usar, de forma enganosa, textos escritos por LLM [Modelo de Linguagem Grande, como o ChatGPT] como seus próprios, ou usar LLM de maneira simplista (como conduzir uma revisão incompleta da literatura) e produzir trabalhos que não sejam confiáveis", pontua a revista.

Neste cenário, duas regras foram definidas para regular tais práticas:

  • Nenhuma ferramenta será aceita como autor em um estudo. "Isso ocorre porque qualquer atribuição de autoria acarreta responsabilidade pelo trabalho, e as ferramentas de IA não podem assumir essa responsabilidade", esclarece a Nature.
  • O uso de ferramentas do tipo devem ser documentado nas seções de métodos ou agradecimentos de um artigo científico.

É possível saber se um estudo científico foi feito por uma IA?

Apesar das novas regras, cabe se perguntar: é possível identificar um texto escrito por uma IA? Segundo a Nature, a resposta é "talvez", já que depende de "uma inspeção cuidadosa" e tende a ser mais precisa "quando mais do que alguns parágrafos estão envolvidos". Inclusive, a equipe do Canaltech já fez a mesma pergunta para o ChatGPT.

Outro ponto é que a ferramenta não indica as fontes usadas na resposta, algo fundamental no mundo acadêmico. "Mas, no futuro, os pesquisadores de IA podem contornar esses problemas — já existem alguns experimentos ligando chatbots a ferramentas de citação de fontes, por exemplo, e outros treinando os chatbots para textos científicos especializados", avisa a Nature.

Em outra frente, a editora da Nature, a Springer, desenvolve uma tecnologia própria para identificar textos produzidos por IA com fins acadêmicos. Para os próximos anos, este embate pode representar o início de uma nova era na produção de saber científico e uma prova de fogo à criatividade e ao intelecto humano.

Fonte: Nature (1) e (2)

Trending no Canaltech:

Canaltech
Compartilhar
Publicidade
Publicidade