Los Abogados de Anthropic Asumen la Responsabilidad por la Alucinación de IA en Demanda por Derechos de Autor

Photo by Sasun Bughdaryan on Unsplash

Los Abogados de Anthropic Asumen la Responsabilidad por la Alucinación de IA en Demanda por Derechos de Autor

Tiempo de lectura: 3 min.

Este jueves, un abogado de Anthropic reconoció haber utilizado una cita incorrecta generada por el chatbot de inteligencia artificial de la empresa, Claude, durante un caso de derechos de autor en curso en el norte de California. La empresa de IA se encuentra actualmente en una batalla legal con Universal Music Group (UMG), que demandó a Anthropic por el uso de letras de canciones con derechos de autor para entrenar sus modelos de IA.

¿Con prisa? Aquí están los hechos rápidos:

  • La abogada que defiende a Anthropic en la corte reconoció haber usado una cita incorrecta generada por Claude.
  • El error fue abordado por los abogados de UMG durante el caso en curso de derechos de autor de música en el norte de California.
  • Dukanovic describió la situación como un “error embarazoso e involuntario”.

La abogada, Ivana Dukanovic, asociada en Latham & Watkins, declaró en un documento presentado a la corte que Claude cometió un error de cita al listar el título y el autor incorrectos para un artículo utilizado en el caso. Sin embargo, señaló que la publicación, el enlace, el año y el contenido del artículo eran correctos.

“Nuestra investigación sobre el asunto confirma que esto fue un error honesto de citación y no una fabricación de autoridad”, afirma el documento. “Pedimos disculpas por la imprecisión y cualquier confusión que este error haya causado”.

Según Reuters, la explicación de Dukanovic llega después de que los abogados de UMG dijeran que la científica de datos Olivia Chen utilizó fuentes fabricadas por IA para defender a Anthropic en el caso.

Dukanovic explicó que Chen utilizó el artículo correcto de la revista American Statistician, pero que los abogados de Latham & Watkins añadieron la nota al pie incorrecta proporcionada por Claude:

Después de que el equipo de Latham & Watkins identificara la fuente como un apoyo adicional potencial para el testimonio de la Sra. Chen, pedí a Claude.ai que proporcionara una cita legal correctamente formateada para esa fuente utilizando el enlace al artículo correcto. Desafortunadamente, aunque proporcionó el título de la publicación correcta, el año de publicación y el enlace a la fuente proporcionada, la cita devuelta incluyó un título inexacto y autores incorrectos. Nuestra revisión manual de citas no detectó ese error.

Dukanovic describió la situación como un “error embarazoso e involuntario” y aseguró que han implementado nuevas medidas para garantizar que no vuelva a suceder.

Hace unas semanas, durante una etapa temprana del caso, el jurado se había pronunciado a favor de Anthropic y consideró que las solicitudes de UMG eran demasiado amplias. Esta nueva situación podría poner en peligro la ventaja de Anthropic en el caso.

En los últimos meses, varios abogados han presentado documentos generados por IA incorrectos en los tribunales en los Estados Unidos, lo que ha suscitado preocupaciones y problemas legales. Esta semana, un juez multó a dos bufetes de abogados con $31,000 por citaciones legales falsas generadas por IA.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión