Tribunal Federal do EUA decide que treinamento de IA com livros é uso justo, mas envia a Anthropic a julgamento por cópias piratas

Decisão histórica traça a linha entre o treinamento legal de IA e o uso de conteúdo pirateado
Um Tribunal Federal dos EUA proferiu uma decisão dividida em um caso de direitos autorais de alto impacto que pode moldar o futuro do desenvolvimento da inteligência artificial. O juiz distrital William Alsup decidiu que o uso de livros protegidos por direitos autorais pela Anthropic para treinar seu sistema de IA Claude se enquadra legalmente como “uso justo”, representando uma vitória significativa para a indústria de IA.
No entanto, o juiz também determinou que a empresa enfrente um julgamento em dezembro por supostamente ter criado uma “biblioteca central” contendo mais de 7 milhões de livros pirateados — uma decisão que mantém proteções cruciais para os criadores de conteúdo.
A decisão, cheia de nuances, estabelece que, embora empresas de IA possam aprender com conhecimento humano protegido por direitos autorais, elas não podem construir suas bases com materiais obtidos de forma ilícita. O juiz Alsup concluiu que treinar sistemas de IA com obras protegidas transforma os trabalhos originais em algo fundamentalmente novo, comparando o processo ao aprendizado humano. “Como qualquer leitor que aspira ser escritor, os modelos de IA da Anthropic treinaram com obras não para reproduzi-las, mas para criar algo diferente”, escreveu Alsup em sua decisão. Essa qualidade transformadora enquadra o treinamento claramente nos limites legais do “uso justo”.
A defesa da Anthropic baseou-se na permissão para usos transformadores conforme a lei de direitos autorais, o que promove a criatividade e o progresso científico. A empresa argumentou que o treinamento de sua IA envolveu a extração de padrões e informações não protegidos por direitos autorais dos textos, e não a reprodução das obras em si. Documentos técnicos mostraram que a Anthropic comprou milhões de livros físicos, removeu as encadernações e escaneou as páginas para criar conjuntos de dados de treinamento — um processo que o juiz considerou “particularmente razoável”, já que as cópias originais foram destruídas após a digitalização.
Contudo, o juiz fez uma distinção clara entre métodos legais de treinamento e a prática paralela da empresa de baixar livros pirateados de bibliotecas alternativas como a Library Genesis. Alsup rejeitou categoricamente o argumento da Anthropic de que a origem do material era irrelevante para a análise de uso justo.
“Esta decisão duvida que qualquer infrator acusado possa jamais justificar por que foi razoavelmente necessário baixar cópias de sites piratas”, afirmou o juiz na decisão, estabelecendo um precedente importante sobre a importância dos métodos de aquisição.
A decisão traz alívio imediato para desenvolvedores de IA enfrentando processos semelhantes por direitos autorais, como os movidos contra OpenAI, Meta e Microsoft. Ao validar o argumento do uso justo para o treinamento de IA, a decisão pode evitar a exigência de que toda a indústria tenha que licenciar todo o material de treinamento — uma exigência que poderia aumentar drasticamente os custos de desenvolvimento.
A Anthropic celebrou a decisão favorável quanto ao uso justo, afirmando que ela está alinhada com o “propósito do direito autoral de permitir a criatividade e fomentar o progresso científico”. No entanto, a empresa ainda enfrenta um risco financeiro substancial no julgamento de dezembro, no qual os danos estatutários podem chegar a US$ 150 mil por obra violada. A equipe jurídica dos autores se recusou a comentar, enquanto documentos judiciais revelam que a própria Anthropic questionou internamente a legalidade de usar sites piratas antes de mudar para a compra de livros.