Las Alucinaciones de la Inteligencia Artificial Aumentan a Medida que las Herramientas se Vuelven Más Complicadas

Image by Kelly Sikkema, from Unsplash

Las Alucinaciones de la Inteligencia Artificial Aumentan a Medida que las Herramientas se Vuelven Más Complicadas

Tiempo de lectura: 3 min.

Los nuevos sistemas de Inteligencia Artificial de empresas como OpenAI son más avanzados que nunca, pero están propagando información falsa de manera creciente y nadie sabe por qué.

¿Apurada? Aquí están los datos rápidos:

  • Nuevos modelos de razonamiento adivinan respuestas, a menudo inventando hechos sin explicación.
  • El o4-mini de OpenAI alucinó respuestas en casi el 80% de los casos de prueba.
  • Los expertos admiten que todavía no entienden completamente los procesos de toma de decisiones de la IA.

Los sistemas de I.A. se están volviendo más poderosos, pero también están cometiendo más errores, y nadie sabe completamente por qué, como informó por primera vez The New York Times.

Justo el mes pasado, Cursor, una herramienta de codificación, tuvo que calmar a clientes enfadados después de que su bot de soporte de inteligencia artificial les informó incorrectamente que ya no podían usar el producto en varios dispositivos.

“No tenemos tal política. Por supuesto, eres libre de usar Cursor en varias máquinas”, aclaró el CEO Michael Truell en Reddit, culpando al bot por el mensaje falso, según informó The Times.

Los sistemas avanzados de Inteligencia Artificial de OpenAI y Google, y DeepSeek en China, experimentan un creciente número de “alucinaciones”, que son errores en sus operaciones. Estas herramientas utilizan sus habilidades de “razonamiento” para resolver problemas, pero a menudo generan suposiciones incorrectas e información fabricada.

The Times informa que los resultados de las pruebas de nuevos modelos revelaron que estos sistemas generaron respuestas fabricadas en el 79% de sus respuestas.

“A pesar de nuestros mejores esfuerzos, siempre alucinarán”, dijo Amr Awadallah, CEO de Vectara y ex ejecutivo de Google, según informó The Times. Los bots operan sin reglas establecidas porque generan respuestas basadas en probabilidades, lo que lleva a la fabricación de información.

Eso es un gran problema para los usuarios que manejan datos legales, médicos o de negocios. “No tratar adecuadamente estos errores básicamente elimina el valor de los sistemas de IA”, dijo Pratik Verma, CEO de Okahu.

En un ejemplo, los errores generados por la Inteligencia Artificial están causando problemas reales, especialmente en áreas sensibles como el trabajo legal. Los abogados han enfrentado sanciones por usar información fabricada por modelos de IA en documentos judiciales.

Un informe reveló que dos abogados en Wyoming incluyeron casos falsos generados por IA en una demanda contra Walmart, lo que resultó en un juez federal amenazando con sanciones. Esto ha desencadenado advertencias en el campo legal sobre los riesgos de depender de la IA para tareas que requieren información verificada.

El modelo o3 de OpenAI produjo alucinaciones durante las pruebas a una tasa del 33%, que fue el doble de alta que el modelo o1. El modelo o4-mini mostró la tasa de alucinación más alta, con un 48%. “Estamos trabajando activamente para reducir las tasas más altas de alucinación”, dijo la portavoz de OpenAI, Gaby Raila, según informó The Times.

Estos problemas se ven agravados por las preocupaciones sobre el impacto de la IA en el periodismo. Un estudio de la BBC encontró que los populares chatbots de IA tienen dificultades con la precisión del contenido de las noticias, con un 51% de las respuestas que contienen errores significativos, incluyendo citas fabricadas e inexactitudes factuales.

Las investigadoras indican que parte del problema radica en cómo se entrenan estos bots. “Todavía no sabemos exactamente cómo funcionan estos modelos”, dijo Hannaneh Hajishirzi de la Universidad de Washington, según informó The Times.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
5.00 Votado por 1 usuarios
Título
Comentar
Gracias por tu opinión