
Image by Sue Winston, from Unsplash
El Tribunal del Reino Unido advierte a los abogados: las citas falsas de IA pueden llevar a cargos criminales
El Tribunal Superior de Inglaterra y Gales emitió una severa advertencia a los abogados, indicando que deben abstenerse de usar información legal falsa producida por herramientas de inteligencia artificial como ChatGPT, porque enfrentarán sanciones penales.
¿Apurado? Aquí están los datos rápidos:
- El tribunal británico advierte a los abogados sobre cargos criminales por citaciones generadas por IA falsa.
- Las referencias de casos creadas por IA utilizadas en una demanda de £89 millones carecían de base factual.
- Un abogado se autodenunció después de presentar 18 casos falsos mezclados con citas auténticas.
La advertencia se hizo necesaria después de dos recientes procedimientos legales. El hombre que llevó a cabo una demanda de 89 millones de libras contra dos bancos creó citas legales basadas en inteligencia artificial, tal como informó The New York Times.
Entre las 45 referencias de casos presentadas, dieciocho carecían completamente de fundamento factual. The Guardian informó que la abogada proporcionó citas reales, pero tanto las referencias auténticas como las falsas no lograron establecer conexiones válidas con el caso.
La abogada asumió la responsabilidad de su descuido en las citas antes de auto-denunciarse al organismo regulador.
El Centro de Leyes de Haringey presentó una demanda contra el consejo del municipio de Londres debido a su disputa de vivienda. La abogada presentó ante el tribunal cinco casos anteriores completamente fabricados. El tribunal determinó que ella era responsable de generar gastos legales innecesarios, según The Guardian.
Aunque negó usar la IA directamente, admitió que podría haber “realizado búsquedas en Google o Safari” y dependido sin saberlo de resúmenes generados por IA, según informa The Times.
La jueza Victoria Sharp, presidenta de la División del Banco del Rey, dijo: “Hay graves implicaciones para la administración de justicia y la confianza pública en el sistema de justicia si se hace un uso indebido de la inteligencia artificial”, según informó The Times. Advirtió que los abogados corren el riesgo de enfrentar cargos criminales o ser inhabilitados para ejercer la ley.
El fallo añadió que las herramientas de IA “pueden producir respuestas aparentemente coherentes y plausibles… [pero] pueden hacer afirmaciones confiadas que simplemente no son ciertas”, según informó The Times. Ian Jeffery de la Law Society respaldó el fallo, diciendo que “pone de manifiesto los peligros de usar la IA en el trabajo legal”, según informó The Guardian.
El tribunal instó a los líderes legales a capacitar urgentemente al personal sobre cómo usar responsablemente la IA, que se sabe que “alucina” información.
La práctica del uso descontrolado de la IA ya ha causado problemas similares en todo Estados Unidos, así como en Australia y Europa, generando así una amplia preocupación entre los profesionales del derecho.
Una jueza de EE.UU. impuso multas de $31,000 a dos bufetes de abogados por utilizar la IA para crear escritos judiciales artificiales que incluían citaciones legales fabricadas. El documento judicial relacionado con State Farm incluía referencias judiciales falsas, que los abogados de ambos bufetes descuidaron verificar.
La jueza Michael Wilner expresó su decepción hacia los abogados por no verificar el contenido generado por IA, lo que casi resulta en que incluyan información engañosa dentro de una orden judicial.