Anthropic vai pagar US$ 1,5 bilhão por violação de direitos autorais para treinar IA
Acordo é o maior da história do tipo nos EUA; companhia diz que dados não foram usados em modelos lançados publicamente
Em um acordo histórico, a Anthropic, startup de inteligência artificial (IA) por trás do chatbot Claude, concordou em pagar US$ 1,5 bilhão a um grupo de autores e editores de livros depois que a Justiça dos EUA entendeu que a companhia baixou e armazou ilegalmente milhões de livros protegidos por direitos autorais.
O acordo é o maior pagamento da história dos casos de direitos autorais nos Estados Unidos. A Anthropic pagará US$ 3 mil por obra a 500 mil autores.
O acordo é um marco importante na batalha entre empresas de IA e detentores de direitos autorais, que envolve mais de 40 processos judiciais em todo os EUA — além de ocorrer diferentes países, como o Brasil. Especialistas afirmam que o acordo pode abrir caminho para que mais empresas de tecnologia paguem aos detentores de direitos por meio de decisões judiciais e acordos ou por meio de taxas de licenciamento.
"Este acordo envia uma mensagem poderosa às empresas de IA e aos criadores de que pegar obras protegidas por direitos autorais de sites piratas é errado", disse Justin A. Nelson, advogado dos autores que entraram com a ação contra a Anthropic.
O acordo lembra o início dos anos 2000, quando os tribunais decidiram que serviços de compartilhamento de arquivos como Napster e Grokster infringiam os direitos dos detentores ao permitir que músicas, filmes e outros materiais protegidos por direitos autorais fossem compartilhados gratuitamente na internet.
"Este é o momento Napster da indústria de IA", disse Cecilia Ziniti, advogada de propriedade intelectual que agora é CEO da startup de inteligência artificial GC AI.
O acordo foi fechado após uma decisão, em junho do juiz William Alsup, do Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia. Nela, o magistrado decidiu a favor da Anthropic de maneiras significativas. Mais notavelmente, ele decidiu que, quando a Anthropic adquiriu livros protegidos por direitos autorais legalmente, a lei permitia que a empresa treinasse tecnologias de IA usando os livros, pois isso os transformava em algo novo.
"O uso para treinamento foi fair use", escreveu ele. "A tecnologia em questão estava entre as mais transformadoras que muitos de nós veremos em nossas vidas."
Mas ele também concluiu que a Anthropic havia adquirido ilegalmente milhões de livros por meio de "bibliotecas paralelas" online, como a Library Genesis e a Pirate Library Mirror, que muitas empresas de tecnologia têm usado para complementar as enormes quantidades de texto digital necessárias para treinar tecnologias de IA. Quando a Anthropic baixou esses arquivos, decidiu o juiz, seus executivos sabiam que elas continham livros piratas.
A Anthropic poderia ter comprado os livros de muitos vendedores, disse o juiz, mas preferiu "roubá-los" para evitar o que o diretor executivo da empresa, Dario Amodei, chamou de "trâmites legais/práticos/comerciais" nos documentos do tribunal. Empresas e indivíduos que infringem deliberadamente os direitos autorais podem enfrentar indenizações significativamente mais altas — até US$ 150 mil por obra — do que aqueles que não sabem que estão infringindo a lei.
Depois que o juiz decidiu que os autores tinham motivos para levar a Anthropic a julgamento por causa dos livros pirateados, as duas partes decidiram fechar um acordo.
Como parte dele, a Anthropic afirmou que não utilizou nenhuma obra pirateada para desenvolver tecnologias de IA que foram lançadas publicamente. O acordo também concede a terceiros o direito de processar a Anthropic caso acreditem que as tecnologias da empresa estão reproduzindo suas obras sem a devida aprovação. A Anthropic também concordou em excluir as obras pirateadas que baixou e armazenou.
"Em junho, o Tribunal Distrital emitiu uma decisão histórica sobre o desenvolvimento de IA e a lei de direitos autorais, concluindo que a abordagem da Anthropic para treinar modelos de IA constitui fair use", disse Aparna Sridhar, vice-conselheira geral da Anthropic, em um comunicado. "O acordo de hoje, se aprovado, resolverá as reivindicações remanescentes dos demandantes. Continuamos comprometidos com o desenvolvimento de sistemas de IA seguros que ajudem pessoas e organizações a ampliar suas capacidades, promover descobertas científicas e resolver problemas complexos."
Chad Hummel, advogado do escritório de advocacia McKool Smith, que não está envolvido no caso, disse que "a Anthropic percebeu que havia uma responsabilidade substancial".
O juiz Alsup ainda precisa aprovar o acordo. Outro caso envolvendo IA chegou a um acordo no mês passado, depois que dois atores acusaram a empresa de voz IA ElevenLabs de imitar suas vozes. O acordo nesse caso, que foi apresentado em um tribunal de Delaware, ainda não foi divulgado.
Chuva de processos
Em 2024, três autores de livros, Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, processaram a Anthropic, acusando a startup de usar ilegalmente seus trabalhos para treinar seus modelos de IA. O processo está entre os vários casos que os detentores de direitos autorais moveram contra empresas de IA. Alguns foram indeferidos pelos tribunais.
Empresas como a Anthropic, OpenAI, Meta e Microsoft precisam de enormes quantidades de dados, alguns dos quais protegidos por direitos autorais, para construir seus modelos de IA. As empresas afirmam que têm o direito legal de não pagar pelo conteúdo, pois o material é público e elas não estão reproduzindo o material na íntegra — é a doutrina do fair use, que não existe na Justiça brasileira. Mas autores, editores, músicos e outros artistas contestaram essa posição.
Algumas empresas de IA já assinaram acordos com organizações de notícias e outros detentores de direitos autorais para licenciar seu material. A OpenAI assinou acordos de licenciamento com organizações de notícias, incluindo Axel Springer, Condé Nast, News Corp e The Washington Post. Em maio, a Amazon assinou um acordo de licenciamento com o The Times.
Depois que o Times e várias outras organizações entraram com ações judiciais sobre o uso de material protegido por direitos autorais em tecnologias de IA, a Anthropic tentou uma abordagem diferente, adquirindo livros "por motivos legais", de acordo com documentos judiciais. No início de 2024, a empresa contratou Tom Turvey, ex-chefe do projeto Google Books, que criou cópias digitais de milhões de obras protegidas por direitos autorais digitalizando livros físicos de bibliotecas.
O projeto Google Books também enfrentou uma ação judicial por direitos autorais, que acabou sendo decidida a favor do Google.
Depois de entrar em contato com grandes editoras sobre a possibilidade de licenciar seus livros, Turvey comprou livros físicos em grandes quantidades de distribuidores e varejistas, de acordo com documentos judiciais. Em seguida, ele contratou organizações externas para desmontar os livros, digitalizá-los e criar cópias digitais que pudessem ser usadas para treinar as tecnologias de IA da empresa.
O juiz Alsup decidiu que essa abordagem era de uso justo nos termos da lei. Mas ele também considerou ilegal a abordagem anterior da empresa — baixar e armazenar livros de bibliotecas paralelas como a Library Genesis e a Pirate Library Mirror.
O acordo no caso da Anthropic não estabelece um precedente legal, porque o caso não foi a julgamento. Mas pode influenciar outros casos e o comportamento de outras empresas de IA, disse Hummel.
Durante um depoimento, um dos fundadores da Anthropic, Ben Mann, testemunhou que também baixou o conjunto de dados da Library Genesis quando trabalhava para a OpenAI em 2019 e presumiu que isso era "fair use" do material.
Em outro caso movido por autores de livros contra a Meta, documentos judiciais mostram que funcionários da Meta usaram o banco de dados da Library Genesis. Um funcionário chamou-o de "um conjunto de dados que sabemos ser pirata", de acordo com os documentos.
Assim como o juiz Alsup, o juiz no caso da Meta decidiu que, quando os livros são obtidos legalmente, usá-los para treinar modelos de IA era uso justo nos termos da lei.
Mas em outro caso em Delaware, em que a organização de mídia Thomson Reuters processou a startup de IA, Ross Intelligence, um juiz concluiu que o uso de material protegido por direitos autorais pela startup para treinar suas tecnologias não era considerado uso justo. O caso agora está em fase de recurso.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial.Saiba mais em nossa Política de IA.