Anthropic concorda em pagar US$1,5 bilhão para resolver ação coletiva de escritores

Publicado 05.09.2025, 21:23
Atualizado 05.09.2025, 21:28
© Reuters.

Por Blake Brittain e Mike Scarcella

(Reuters) - A Anthropic informou a um juiz federal de São Francisco, nesta sexta-feira, que concordou em pagar US$1,5 bilhão para resolver uma ação coletiva de um grupo de autores que acusaram a empresa de inteligência artificial de usar seus livros para treinar seu chatbot Claude de IA sem permissão.

Em um documento judicial, os autores pediram ao juiz distrital William Alsup que aprovasse o acordo, depois de anunciar o acordo em agosto sem divulgar os termos ou o valor.

"Esse acordo envia uma mensagem poderosa para as empresas de IA e para os criadores de que retirar trabalhos protegidos por direitos autorais desses sites piratas é errado", disseram os advogados dos autores em um comunicado. Eles o consideraram a maior recuperação de direitos autorais da história e a primeira do gênero na era da inteligência artificial.

O acordo proposto marca o primeiro acerto em uma série de ações judiciais contra empresas de tecnologia, incluindo a OpenAI, a Microsoft e a Meta, sobre o uso de material protegido por direitos autorais para treinar sistemas de IA generativos.

A Anthropic, como parte do acordo, disse que destruirá as cópias baixadas dos livros que os autores acusaram de pirataria e, segundo o acordo, ainda poderá enfrentar reivindicações de violação relacionadas ao material produzido pelos modelos de IA da empresa.

O acordo de US$1,5 bilhão equivale a US$3.000 por 500.000 livros baixados, e pode aumentar se mais obras forem identificadas.

Em um comunicado, a Anthropic disse que a empresa está "comprometida com o desenvolvimento de sistemas de IA seguros que ajudem pessoas e organizações a ampliar suas capacidades, promover descobertas científicas e resolver problemas complexos". O acordo não inclui uma admissão de responsabilidade.

Os escritores Andrea Bartz, Charles Graeber e Kirk Wallace Johnson entraram com a ação coletiva contra a Anthropic no ano passado. Eles argumentaram que a empresa, que é apoiada pela Amazon e pela Alphabet, usou ilegalmente milhões de livros piratas para ensinar seu assistente de IA, Claude, a responder a solicitações humanas.

As alegações dos escritores ecoaram dezenas de outros processos movidos por autores, agências de notícias, artistas visuais e outros que afirmam que as empresas de tecnologia roubaram seu trabalho para usá-lo no treinamento de IA.

As empresas argumentaram que seus sistemas fazem uso justo de material protegido por direitos autorais para criar conteúdo novo e transformador.

Alsup decidiu em junho que a Anthropic fez uso justo do trabalho dos autores para treinar o Claude, mas concluiu que a empresa violou seus direitos ao salvar mais de 7 milhões de livros piratas em uma "biblioteca central" que não seria necessariamente usada para esse fim.

Um julgamento estava programado para começar em dezembro para determinar quanto a Anthropic devia pela suposta pirataria, com possíveis danos que chegam a centenas de bilhões de dólares.

Mary Rasenberger, presidente-executivo do grupo de escritores Authors Guild, em uma declaração na sexta-feira, chamou o acordo de "um passo vital no reconhecimento de que as empresas de IA não podem simplesmente roubar o trabalho criativo dos autores para construir sua IA".

A questão fundamental do uso justo ainda está sendo debatida em outros casos de direitos autorais de IA. Outro juiz de São Francisco, ouvindo um processo semelhante em andamento contra a Meta, determinou, logo após a decisão de Alsup, que o uso de trabalhos protegidos por direitos autorais sem permissão para treinar a IA seria ilegal em "muitas circunstâncias".

Últimos comentários

Instale nossos aplicativos
Divulgação de riscos: Negociar instrumentos financeiros e/ou criptomoedas envolve riscos elevados, inclusive o risco de perder parte ou todo o valor do investimento, e pode não ser algo indicado e apropriado a todos os investidores. Os preços das criptomoedas são extremamente voláteis e podem ser afetados por fatores externos, como eventos financeiros, regulatórios ou políticos. Negociar com margem aumenta os riscos financeiros.
Antes de decidir operar e negociar instrumentos financeiros ou criptomoedas, você deve se informar completamente sobre os riscos e custos associados a operações e negociações nos mercados financeiros, considerar cuidadosamente seus objetivos de investimento, nível de experiência e apetite de risco; além disso, recomenda-se procurar orientação e conselhos profissionais quando necessário.
A Fusion Media gostaria de lembrar que os dados contidos nesse site não são necessariamente precisos ou atualizados em tempo real. Os dados e preços disponíveis no site não são necessariamente fornecidos por qualquer mercado ou bolsa de valores, mas sim por market makers e, por isso, os preços podem não ser exatos e podem diferir dos preços reais em qualquer mercado, o que significa que são inapropriados para fins de uso em negociações e operações financeiras. A Fusion Media e quaisquer outros colaboradores/partes fornecedoras de conteúdo não são responsáveis por quaisquer perdas e danos financeiros ou em negociações sofridas como resultado da utilização das informações contidas nesse site.
É proibido utilizar, armazenar, reproduzir, exibir, modificar, transmitir ou distribuir os dados contidos nesse site sem permissão explícita prévia por escrito da Fusion Media e/ou de colaboradores/partes fornecedoras de conteúdo. Todos os direitos de propriedade intelectual são reservados aos colaboradores/partes fornecedoras de conteúdo e/ou bolsas de valores que fornecem os dados contidos nesse site.
A Fusion Media pode ser compensada pelos anunciantes que aparecem no site com base na interação dos usuários do site com os anúncios publicitários ou entidades anunciantes.
A versão em inglês deste acordo é a versão principal, a qual prevalece sempre que houver alguma discrepância entre a versão em inglês e a versão em português.
© 2007-2025 - Fusion Media Limited. Todos os direitos reservados.