PUBLICIDADE

ChatGPT inventa casos que não existem após advogado usar IA em processo contra companhia aérea

O advogado de um homem que processou a Avianca por um acidente em um voo para NY usou o software de Inteligência Artificial para ajudar a preparar um processo judicial - e deu tudo errado

28 mai 2023 - 08h13
(atualizado em 29/5/2023 às 11h32)
Compartilhar
Exibir comentários
ChatGPT pode inventar conteúdo falso
ChatGPT pode inventar conteúdo falso
Foto: Unsplash

THE NEW YORK TIMES - O processo começou como tantos outros: um homem chamado Roberto Mata acusou a companhia aérea Avianca, dizendo que se machucou quando um carrinho de metal atingiu seu joelho durante um voo para o Aeroporto Internacional de Nova York.

Quando a Avianca pediu a um juiz federal de Manhattan que rejeitasse o caso, os advogados de Mata se opuseram veementemente, apresentando um documento de 10 páginas que citava mais de seis decisões judiciais relevantes. Houve Martinez vs. Delta Air Lines, Zicherman vs Korean Air Lines e, é claro, Varghese vs China Southern Airlines, com sua erudita discussão sobre a lei federal e "o efeito pedágio da suspensão automática em um estatuto de limitações".

Havia apenas um problema: ninguém - nem os advogados da companhia aérea, nem mesmo o próprio juiz - conseguiu encontrar as decisões ou citações resumidas no documento. O ChatGPT havia inventado tudo.

O advogado que escreveu a petição, Steven Schwartz, da firma Levidow, Levidow & Oberman, colocou-se à disposição do tribunal na quinta-feira, dizendo em uma declaração juramentada que havia usado o programa de inteligência artificial (IA) para fazer sua pesquisa jurídica - "uma fonte que se revelou não confiável".

Schwartz, que advogou em Nova York por três décadas, disse ao juiz Kevin Castel que não tinha intenção de enganar o tribunal ou a companhia aérea. Também disse que nunca havia usado o ChatGPT e "portanto, desconhecia a possibilidade de que seu conteúdo pudesse ser falso". Para o juiz, Schwartz disse que havia até pedido ao programa para verificar se os casos eram reais. E o ChatGPT tinha dito que sim.

O advogado afirmou "lamentar muito" ter confiado no ChatGPT "e prometeu nunca mais fazer uso no futuro sem a verificação absoluta de sua autenticidade".

O juiz Castel disse em uma ordem que havia sido "presenteado com uma circunstância sem precedentes", um documento legal repleto de "decisões judiciais falsas, com citações falsas e citações internas falsas". Ele ordenou uma audiência para 8 de junho para discutir sanções ao advogado.

À medida que a inteligência artificial varre o mundo online, ela evoca visões distópicas de computadores substituindo não apenas a interação humana, mas também o trabalho humano. O medo tem sido ainda maior para aqueles que trabalham com o conhecimento.

Stephen Gillers, professor de ética jurídica da Escola de Direito da Universidade de Nova York, disse que a questão é particularmente crítica entre os advogados, que vêm debatendo o valor e os perigos de softwares de Inteligência Artificial  como o ChatGPT, bem como a necessidade de verificar qualquer informação que ele forneça.

"A discussão agora entre os advogados é como evitar exatamente o que este caso descreve", disse Gillers. "Você não pode simplesmente pegar o resultado e recortá-lo e colá-lo em seus arquivos judiciais."

O caso Roberto Mata vs Avianca Inc. mostra que certas profissões podem ter pelo menos um pouco de tempo antes que os robôs assumam o controle.

Tudo começou quando Mata era passageiro do voo 670 da Avianca de El Salvador para Nova York em 27 de agosto de 2019, quando um funcionário da companhia aérea o atingiu com o carrinho de serviço. Após o processo de Mata, a companhia aérea apresentou documentos pedindo que o caso fosse arquivado porque o estatuto de limitações havia expirado.

Em uma petição apresentada em março, os advogados de Mata disseram que o processo deveria continuar, reforçando seu argumento com referências e citações de muitas decisões judiciais que já foram desmentidas.

Logo, os advogados da Avianca escreveram ao juiz Castel, dizendo que não conseguiram encontrar os casos citados na petição.

Quando se tratou de Varghese vs China Southern Airlines, eles disseram que "não foram capazes de localizar este caso por legenda ou citação, nem qualquer caso que tenha qualquer semelhança com ele".

Apontaram para uma longa citação da suposta decisão Varghese contida no documento. "Os advogados não conseguiram localizar esta citação, nem nada parecido em qualquer caso", escreveram os advogados da Avianca.

De fato, acrescentaram os advogados, a citação, que veio do próprio Varghese, tratando do caso Zicherman vs Korean Air Lines Co. também não foi encontrado.

O juíz Castel ordenou aos advogados do senhor Mata que fornecessem cópias dos pareceres referidos em seus escritos. Os advogados apresentaram um compêndio de oito; na maioria dos casos, listavam o tribunal e os juízes que os emitiram, os números dos autos e as datas.

A cópia da suposta decisão de Varghese, por exemplo, tem seis páginas e diz que foi escrita por um membro de um painel de três juízes do 11º Circuito. Mas os advogados da Avianca disseram ao juiz que não conseguiram encontrar essa decisão, ou as outras, nos autos do tribunal ou em bancos de dados legais.

Bart Banino, advogado da Avianca, disse que seu escritório, Condon & Forsyth, é especializado em direito aeronáutico e que seus advogados poderiam dizer que os casos no documento não eram reais. Segundo Banino, os advogados do escritório suspeitavam que um chatbot poderia estar envolvido.

Schwartz não respondeu a uma mensagem solicitando comentários, nem Peter LoDuca, outro advogado do escritório, cujo nome apareceu no relatório.

LoDuca disse em um depoimento esta semana que não conduziu nenhuma das pesquisas em questão e que não tinha "nenhuma razão para duvidar da sinceridade" do trabalho de Schwartz ou da autenticidade das opiniões.

O ChatGPT gera respostas realistas fazendo suposições sobre quais fragmentos de texto devem seguir outras sequências, com base em um modelo estatístico que inseriu bilhões de exemplos de texto extraídos de toda a Internet. No caso de Mata, o programa parece ter discernido a estrutura labiríntica de um argumento jurídico escrito, mas o preencheu com nomes e fatos de uma sopa de casos existentes, mas relacionados a outras causas.

O juiz Castel, em seu pedido de audiência, sugeriu que havia feito sua própria investigação. Ele escreveu que o escrivão do 11º Circuito havia confirmado que o número do processo impresso no suposto parecer Varghese estava conectado a um caso totalmente diferente.

Chamando a opinião de "falsa", o juiz Castel observou que continha citações internas e citações inexistentes. Ele disse que cinco das outras decisões apresentadas pelos advogados de Mata também pareciam falsas. Na quinta-feira, os advogados de Mata ofereceram depoimentos contendo sua versão do que havia acontecido.

Schwartz escreveu que originalmente havia entrado com o processo de Mata no tribunal estadual, mas depois que a companhia aérea o transferiu para o tribunal federal de Manhattan, onde Schwartz não é pode advogar, um de seus colegas, LoDuca, tornou-se o advogado de registro. Schwartz disse que continuou a fazer a pesquisa legal, na qual LoDuca não teve nenhum papel.

Schwartz disse que consultou o ChatGPT "para complementar" o seu próprio trabalho e que, "em consulta" com ele, encontrou e citou os casos inexistentes. Ele disse que o ChatGPT forneceu garantias.

"Varghese é um caso real?", ele digitou, de acordo com uma cópia da troca de mensagens com a IA que apresentou ao juiz.

"Sim", respondeu o chatbot, oferecendo uma citação e acrescentando que "é um caso real".

Schwartz foi ainda mais longe. "Qual é a sua fonte", escreveu ele, de acordo com o processo. "Peço desculpas pela confusão anterior", respondeu o ChatGPT, oferecendo uma citação legal.

"Os outros casos que você forneceu são falsos?", perguntou Schwartz. O ChatGPT respondeu: "Não, os outros casos que forneci são reais e podem ser encontrados em bancos de dados jurídicos respeitáveis".

Mas, infelizmente, não podiam ser encontrados.

Estadão
Compartilhar
TAGS
Publicidade
Publicidade