Juiz de Nova York abre perigoso precedente: decidir que suas conversas com IA podem ser usadas contra você no tribunal
Essas conversas não estão protegidas pelo sigilo profissional advogado-cliente
Cada vez mais usuários têm um chatbot com IA como companheiro para tudo, seja ChatGPT, Gemini, Claude ou qualquer outro. O problema surge quando decidimos compartilhar dados sensíveis com esse tipo de ferramenta — afinal, por trás deles há grandes empresas de tecnologia e nunca saberemos com certeza para onde nossos dados estarão indo.
Nesse sentido, há quem compartilhe seus dados jurídicos com o assistente, o que pode acabar resultando em algo como o que ocorreu recentemente em Nova York. Isso porque um juiz da cidade acaba de estabelecer um precedente histórico ao considerar que qualquer conversa mantida com um chatbot é pública e, portanto, não está protegida pelo sigilo profissional advogado-cliente. Ou seja: tudo o que você compartilhar com a IA pode acabar sendo usado contra você em um tribunal.
O caso
Bradley Heppner, um executivo acusado de fraude no valor de 300 milhões de dólares, utilizou o Claude, o chatbot da Anthropic, para tirar dúvidas sobre sua situação legal antes de ser preso. Ele criou 31 documentos com suas conversas com a IA e depois os compartilhou com seus advogados de defesa. Quando o FBI apreendeu seus dispositivos eletrônicos, seus advogados alegaram que esses documentos estavam protegidos pelo sigilo advogado-cliente. O juiz Jed Rakoff disse que não.
Conforme explica Moish Peltz, advogado especializado em ativos digitais e propriedade intelectual, em uma publicação no X, a decisão estabelece três razões. Primeiro, uma IA não é um advogado: não tem ...
Matérias relacionadas
Argentina fez algo inédito desde 1974: a reforma do seu mercado de trabalho