Polémico Artículo sobre IA Retirado Tras Investigación del MIT

Image by Julia Koblitz, from Unsplash

Polémico Artículo sobre IA Retirado Tras Investigación del MIT

Tiempo de lectura: 3 min.

El Instituto de Tecnología de Massachusetts (MIT) dice que ya no respalda un destacado artículo de investigación sobre IA escrito por uno de sus ex alumnos de doctorado.

¿Apurado? Aquí están los datos rápidos:

  • MIT desautorizó un artículo de investigación sobre IA, ampliamente difundido, de un antiguo estudiante.
  • El artículo afirmaba que la IA impulsó los descubrimientos en el laboratorio pero redujo la satisfacción de los científicos.
  • MIT citó falta de confianza en los datos y conclusiones del artículo.

El artículo había obtenido una amplia atención al afirmar que el uso de una herramienta de IA en un laboratorio de ciencias de los materiales resultó en más descubrimientos, pero también hizo que los científicos se sintieran menos satisfechos con su trabajo.

El MIT publicó el viernes una declaración en la que afirma que “no tiene confianza en el origen, la fiabilidad o la validez de los datos y no tiene confianza en la veracidad de la investigación contenida en el documento”. La universidad no nombró al estudiante, citando leyes de privacidad, pero el autor ha sido identificado por The Wall Street Journal (WSJ) como Aidan Toner-Rodgers. Ya no está en el MIT.

Toner-Rodgers presentó el documento, titulado “Inteligencia Artificial, Descubrimiento Científico e Innovación de Productos”, en una importante conferencia de economía y lo publicó en línea el año pasado. En su momento fue elogiado por los economistas del MIT Daron Acemoğlu, quien ganó el Premio Nobel 2024, y David Autor, quien dijo que estaba “asombrado” por los hallazgos, según informó previamente el WSJ.

Pero en enero, una científica de la computación cuestionó la existencia del laboratorio y cómo funcionaba la herramienta de IA. Incapaces de resolver las dudas, Acemoglu y Autor alertaron al MIT, que luego llevó a cabo una revisión confidencial, según informó el WSJ.

Después de eso, la universidad solicitó que el artículo fuera retirado tanto de la revista académica donde se había presentado como del sitio de preimpresión pública arXiv. El WSJ informó que el MIT se negó a especificar cuáles eran los errores del artículo, y dijo que basó esta decisión en “leyes de privacidad estudiantil y la política del MIT.”

El MIT enfatizó que proteger la integridad de la investigación es vital, diciendo que el artículo “debería ser retirado del discurso público” para evitar la propagación de afirmaciones incorrectas sobre el impacto de la IA.

El incidente ha intensificado las preocupaciones existentes sobre la aplicación de la IA generativa en la investigación científica. La adopción creciente de ChatGPT y herramientas similares en el trabajo académico ha llevado a los expertos a advertir sobre el peligro creciente del contenido generado por IA.

Específicamente, la ausencia de manipulación detectable en estas imágenes dificulta la identificación de actividades fraudulentas. Los investigadores creen que el contenido generado por la IA podría estar ingresando ya a revistas sin ser detectado, amenazando la credibilidad de la literatura científica.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión