¿Puede la IA entender el color sin verlo?

Image by Mario Gogh, from Unsplash

¿Puede la IA entender el color sin verlo?

Tiempo de lectura: 2 min.

La investigación demuestra que ChatGPT comprende metáforas comunes de colores, pero no logra entender las nuevas.

¿Con prisa? Aquí están los datos rápidos:

  • La IA tiene dificultades con metáforas de color novedosas o invertidas.
  • Las personas daltónicas y las que ven los colores interpretan las metáforas de manera similar.
  • Los pintores superaron a otros en nuevas metáforas de color.

La investigación demuestra que ChatGPT y otras herramientas de IA son excelentes procesando metáforas básicas de colores, pero fallan a la hora de entender metáforas creativas. Los científicos estudiaron las respuestas humanas y de ChatGPT a metáforas como “sentirse azul” y “ver rojo” para determinar las capacidades de procesamiento de lenguaje de los sistemas de IA, como se informó por primera vez en Neuroscience News (NN).

El estudio, dirigido por la profesora Lisa Aziz-Zadeh en el Centro USC para la Neurociencia de la Cognición Corporizada, descubrió que las personas que ven colores y las personas daltónicas tuvieron un rendimiento similar al interpretar metáforas, lo que sugiere que ver color no es necesario para comprender su significado.

Sin embargo, las personas con experiencia práctica, como los pintores, demostraron habilidades superiores para interpretar metáforas complejas, incluyendo “la reunión lo hizo borgoña”.

ChatGPT, que procesa enormes cantidades de texto escrito, se desempeñó bien en expresiones comunes y ofreció explicaciones informadas por la cultura. Por ejemplo, NN informa un caso en el que el bot describió una “fiesta muy rosa” como “llena de emociones positivas y buenas vibraciones”. Pero a menudo se tropezaba con metáforas desconocidas o cuando se le pedía que invirtiera las asociaciones, como averiguar “lo opuesto de verde”

“ChatGPT utiliza una enorme cantidad de datos lingüísticos para calcular probabilidades y generar respuestas muy similares a las humanas”, dijo Aziz-Zadeh, según lo informado por NN. “Pero lo que nos interesa explorar es si eso sigue siendo una forma de conocimiento de segunda mano, en comparación con el conocimiento humano basado en experiencias de primera mano”, añadió.

El estudio fue una colaboración entre neurocientíficos, informáticos y artistas de instituciones como USC, Google DeepMind y UC San Diego. A medida que la IA se desarrolla, los investigadores dicen que combinar la entrada sensorial con el lenguaje podría ayudarla a comprender mejor el mundo de formas similares a las humanas.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión