Los estudios muestran que ChatGPT y otras herramientas de IA citan investigaciones retractadas

Image by Ryunosuke Kikuno, from Unsplash

Los estudios muestran que ChatGPT y otras herramientas de IA citan investigaciones retractadas

Tiempo de lectura: 3 min.

Algunos chatbots de inteligencia artificial están dando respuestas basadas en investigaciones defectuosas de artículos científicos retirados, según muestran estudios recientes.

¿Apurada? Aquí están los datos rápidos:

  • Los chatbots de IA a veces citan artículos científicos retractados sin advertir a los usuarios.
  • ChatGPT GPT-4o hizo referencia a artículos retractados cinco veces, advirtiendo solo en tres ocasiones.
  • Los expertos advierten que los datos de retracción son inconsistentes y a menudo difíciles de rastrear para la IA.

Los hallazgos de la investigación, que la MIT Technology Review confirmó, plantean dudas sobre la fiabilidad de la IA a la hora de responder a preguntas científicas para investigadores, estudiantes y el público en general.

Los chatbots de inteligencia artificial ya son conocidos por fabricar referencias a veces. Pero los expertos advierten que, incluso cuando las fuentes son reales, surgen problemas si los artículos mismos han sido retirados del registro científico.

“El chatbot está ‘usando un artículo real, material real, para decirte algo'”, dice Weikuan Gu, un investigador médico en la Universidad de Tennessee, como informó el MIT. “Pero”, añade, “si la gente solo mira el contenido de la respuesta y no hace clic para pasar al artículo y ver que ha sido retractado, eso es realmente un problema”,

agregó.El MIT informa que el equipo de Gu probó ChatGPT, funcionando en el modelo GPT-4o de OpenAI, con 21 artículos de imágenes médicas retractados. El chatbot hizo referencia a fuentes retractadas cinco veces, pero solo advirtió a los usuarios sobre este problema en tres de esas instancias. Otro estudio encontró problemas similares con GPT-4o mini, que no mencionó las retractaciones en absoluto.

El problema se extiende más allá de ChatGPT. El MIT evaluó herramientas de IA orientadas a la investigación probando Elicit, Ai2 ScholarQA, Perplexity y Consensus. Cada uno citó estudios que habían sido retractados y no advirtió sobre esto. Los investigadores dijeron que esto ocurrió varias veces en docenas de casos. Algunas empresas dicen que ahora están mejorando la detección.

“Hasta hace poco, no teníamos buenos datos de retractación en nuestro motor de búsqueda”, dijo Christian Salem, cofundador de Consensus, que desde entonces ha añadido nuevas fuentes para reducir los errores.

Los expertos argumentan que los datos de retractación son irregulares e inconsistentes. “Cuando las cosas se retractan, pueden ser marcadas como tal de formas muy diferentes”, dice Caitlin Bakker de la Universidad de Regina.

Los investigadores advierten a los usuarios que deben permanecer cautelosos. “Estamos en las etapas muy, muy tempranas, esencialmente tienes que ser escéptico”, dice Aaron Tay de la Universidad de Gestión de Singapur.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión