
Photo by Dat Nguyen on Unsplash
Anthropic logra un fallo clave en demanda por derechos de autor, pero enfrenta juicio por libros pirateados
Una jueza federal falló a favor de Anthropic el lunes durante un caso de derechos de autor en los Estados Unidos. La jueza de distrito, William Alsup, de San Francisco, encontró que la compañía de IA no violó la ley al usar millones de libros con derechos de autor para entrenar a su chatbot Claude. Sin embargo, la compañía aún debe enfrentar un juicio por libros pirateados almacenados.
¿Apurado? Aquí están los datos rápidos:
- Un juez de San Francisco falla a favor de Anthropic en un caso de derechos de autor, determinando que la empresa hizo un “uso justo” de los libros para entrenar a su chatbot de IA, Claude.
- El juez describe el uso del material por parte de Claude como “quintesencialmente transformador”.
- La startup de IA aún debe enfrentar un juicio por su supuesto uso de 7 millones de libros pirateados.
Según la sentencia oficial, Anthropic compró y descargó millones de libros con derechos de autor, muchos de ellos de sitios piratas, para su “biblioteca central”, desde la cual utiliza varios conjuntos y subconjuntos para entrenar sus grandes modelos de lenguaje (LLMs).
Algunos de los autores cuyas obras fueron incluidas -Andrea Bartz, Charles Graeber y Kirk Wallace Johnson- demandaron a Anthropic por infracción de derechos de autor. Sin embargo, el juez Alsup determinó que Anthropic hizo un “uso justo” del material recopilado.
“Los clientes de Claude querían que Claude escribiera con la misma exactitud y atractivo que los Autores”, señala el documento, refiriéndose a los escritores demandantes como “Autores”. “Por lo tanto, lo mejor era entrenar a los LLM subyacentes a Claude con obras similares a las que los Autores habían escrito, con hechos bien seleccionados, análisis bien organizados y cautivadoras narrativas ficticias: sobre todo con ‘buena escritura’ del tipo que ‘un editor aprobaría'”.
La jueza también señaló que los libros utilizados eran parte del proceso de formación únicamente. La versión de Claude orientada al público está controlada por un software que filtra las salidas y evita la generación de copias exactas o reproducciones rastreables de los textos originales.
”Al igual que cualquier lector que aspira a ser escritor, los LLM de Anthropic se formaron en obras no para adelantarse y replicarlas o suplantarlas, sino para tomar un giro brusco y crear algo diferente”, dijo Alsup.
El juez consideró que el uso que Claude hizo del material era “quintesencialmente transformador”, pero expresó preocupación por el uso de copias piratas. Se informa que Anthropic descargó más de 7 millones de copias de libros de bibliotecas piratas. “Anthropic no tenía derecho a usar copias piratas para su biblioteca central”, declaró el juez, añadiendo que un juicio separado abordará este problema.
Al igual que otras compañías de IA se han visto involucradas en procedimientos legales—la BBC recientemente amenazó a Perplexity con acciones legales por raspar su contenido—Anthropic ya ha enfrentado múltiples casos relacionados con el uso de contenido creado por profesionales creativos. Hace unas semanas, un juez federal de California también falló a favor de Anthropic en una demanda de derechos de autor de música AI, y la compañía de IA también asumió la responsabilidad por alucinación de IA en una demanda de derechos de autor.