'Brasil pode criar um pedágio caríssimo ao trazer direito autoral para lei de IA', diz OpenAI
Na Rio Innovation Week, diretor da companhia no Brasil defendeu a exclusão do tema no texto de regulação que tramita no Congresso
RIO - A OpenAI considera que incluir direitos autorais na discussão de regulação de inteligência artificial (IA), que tramita no Congresso, pode criar um pedágio "caríssimo" para a operação da companhia no País. A declaração foi dada nesta terça, 12, por Nicolas Andrade, diretor de políticas da companhia na América Latina e Caribe em uma das palestras da Rio Innovation Week, um dos principais eventos de tecnologia do País — o Estadão é parceiro de mídia do RIW.
"Hoje em dia a gente tem uma situação de nos Estados Unidos. As empresas estão treinando modelos usando fair use. Na Europa existe uma seção para o uso de dados ao treinar modelos. Em Cingapura, existe esse tipo de legislação. No Japão, existe esse tipo de legislação. Então temos uma situação em que em vários países é possível (usar dados para treinar IAs). É como se o Brasil estivesse estivesse criando literalmente um pedágio caríssimo", afirmou ele em um painel que discutia a regulação da tecnologia do País.
Nos EUA, as principais empresas de tecnologia têm recorrido ao argumento do fair use para não pagar pelos conteúdos usados em treinamento de IA — a ideia é que os modelos generativos criam algo novo em cima de material já existente, em vez de copiar. No entanto, Sam Altman, CEO da OpenAI, já recorreu até ao argumento de segurança nacional dos EUA para ignorar a existência de direitos autorais no treinamento de grandes modelos de linguagem.
Em manifestação enviada ao governo dos Estados Unidos em março deste ano, a startup argumentou que, se empresas americanas forem impedidas de treinar seus modelos com dados protegidos enquanto concorrentes chineses tiverem acesso irrestrito a esses mesmos dados, "a corrida pela IA estará efetivamente perdida". "Há poucas dúvidas de que os desenvolvedores de IA da República Popular da China terão acesso irrestrito a dados — inclusive protegidos por direitos autorais — que melhorarão seus modelos", escreveu a empresa.
É uma situação que incomoda detentores de direitos no País. A Associação Nacional de Jornais (ANJ) considera, por exemplo, que empresas de IA se apropriaram indevidamente de arquivos jornalísticos, usados sem autorização para treinar sistemas. A preocupação de entidades, artistas e produtores de conteúdo é que a falta de remuneração somada à produção gerada pelos algoritmos tenha um peso econômico que inviabilizaria a existência desses atores na internet, concentrando ainda mais a geração de riqueza nas gigantes tecnológicas.
Nos EUA, o TheNew York Times decidiu processar a OpenAI e a Microsoft, acusando as empresas de uso não autorizado de seus artigos para treinar modelos como o ChatGPT. Diante da pressão, a OpenAI firmou acordos com veículos como Financial Times,Le Monde,Vox Media. No Brasil, no entanto, nenhum acordo foi firmado entre OpenAI e veículos de notícia, como o próprio Andrade confirmou em entrevista ao Estadão.
A questão, porém, parece não mobilizar a companhia. "A narrativa pública (sobre direito autoral) fala muito sobre defender artista, mas a palavra artista não aparece no texto (do Marco da IA). O texto fala em detentor de direito autoral. Então estamos falando em números muito pequenos de detentores e não em artistas", afirmou ele.
"Muitos detentores de direito autoral não estão no Brasil. Então, a gente está tentando criar um sistema super complexo, que mandaria dinheiro para fora do Brasil de novo. Não faz sentido", diz ele. "Fiz uma conta de padaria. Vamos supor que você pudesse obrigar uma empresa de IA a pagar um valor X para detentores de direitos. Vamos supor US$ 1 bilhão. E aí eu dividi pelo número de tokens usados para treinar o modelo, 30, 60 trilhões de tokens. Enfim, dava 2 centavos, 3 centavos por token. Não quer dizer que o artista ou detentor de direito não tenha uma voz, não tenha uma um papel importante. Mas o que está escrito hoje no documento não é bom nem para eles, nem para o Brasil", afirmou Andrade.
Durante suas falas o diretor repetiu que o Brasil precisa ter parâmetros semelhantes a leis internacionais de IA para que não exista um suposto desnível de acesso às tecnologias, mas não informou como diferentes países poderiam entrar em acordo internacional sobre leis de IA — e dado o cenário de decadência em movimentos multilaterais globais, é possível que esse tipo de acordo também não seja possível.
Para reguladores que se espelham no AI Act, a lei europeia estabelecida em 2023, Andrade lembrou que há descontentamento em partes do bloco com a legislação, o que sugere que a OpenAI está mais satisfeita com o direcionamento atual visto nos EUA, quando um dos pilares da ordem executiva anunciado por Donald Trump no final de julho determinou a eliminação de regulação que supostamente atrase inovação e o desenvolvimento de IA.