
Image by Sasun Bughdaryan, from Unsplash
Expertos advierten que los tribunales pueden pasar por alto las alucinaciones de la IA en los documentos legales
Un tribunal de Georgia anuló una orden de divorcio tras descubrir citas legales falsas, probablemente generadas por IA, lo que genera alarmas sobre los crecientes riesgos en los sistemas de justicia.
¿Con prisa? Aquí están los datos rápidos:
- Un tribunal de Georgia anuló una orden debido a sospechas de citas falsas de casos generadas por IA.
- El juez Jeff Watkins citó la “IA generativa” como una probable fuente de casos falsos.
- Los expertos dicen que es probable que los tribunales pasen por alto más errores de IA en los expedientes.
El caso presentado ante un tribunal de Georgia demuestra cómo la inteligencia artificial (IA) podría deteriorar silenciosamente la confianza del público en las instituciones legales estadounidenses. ArsTechnica informa que el Juez Jeff Watkins del Tribunal de Apelaciones de Georgia anuló una orden de divorcio porque encontró dos casos ficticios en el documento, que probablemente sean contenido de IA.
La orden había sido redactada por la abogada Diana Lynch, una práctica que, según informa ArsTechnica, es ahora común en los tribunales sobrecargados de trabajo. Este creciente hábito de utilizar la IA en las presentaciones legales hace que los atajos sean particularmente arriesgados.
Lynch fue sancionada con $2,500 y el juez Watkins escribió: “las irregularidades en estos archivos sugieren que fueron redactados utilizando IA generativa”, añadiendo que las alucinaciones de la IA pueden “desperdiciar tiempo y dinero”, dañar la reputación del sistema y permitir a un “litigante […] desafiar una resolución judicial alegando de manera deshonesta dudas sobre su autenticidad”, según informa ArsTechnica.
Los expertos advierten que este no es un caso aislado. John Browning, un exjuez de apelaciones de Texas, dijo que es “aterradoramente probable” que más tribunales de juicio confíen erróneamente en citas falsas generadas por IA, especialmente en sistemas sobrecargados. “Puedo imaginar tal escenario en un sinfín de situaciones”, le dijo a Ars Technica.
Otros ejemplos recientes reflejan la preocupación. El sistema legal de Colorado multó a dos abogados que representaban al CEO de MyPillow, Mike Lindell, con un total de $3,000 después de que presentaron documentos legales generados por IA con más de veinte errores graves. La jueza Nina Y. Wang escribió: “este tribunal no obtiene ningún placer al sancionar a los abogados”, pero enfatizó que los abogados son responsables de verificar los documentos presentados.
En California, otro juez multó a dos bufetes de abogados con $31,000 después de que presentaron informes con citas falsas. “Eso da miedo”, escribió el juez Michael Wilner, quien estuvo a punto de dejarse persuadir por las sentencias falsas. A menos que los tribunales se adapten rápidamente, las alucinaciones de la IA podrían convertirse en una pesadilla recurrente en la justicia estadounidense.
Esta tendencia es particularmente preocupante cuando se considera lo costosa que ya es la representación legal. La gente suele creer que los honorarios legales garantizan tanto la precisión como el servicio profesional de sus abogados. Sin embargo, a medida que los abogados utilizan la IA para tomar atajos, los clientes pueden terminar pagando la factura por los errores cometidos por una máquina.
Estas alucinaciones no solo amenazan los resultados legales, también pueden reforzar la desigualdad al hacer que la justicia sea aún más difícil de acceder para aquelos que menos pueden permitirse luchar contra ella.