
Image by Ilias Chebbi, from Unsplash
La IA Supera a los Humanos en Pruebas de Inteligencia Emocional
La IA supera a los humanos en pruebas de inteligencia emocional, mostrando promesa para la educación y la resolución de conflictos.
¿Con prisa? Aquí están los hechos rápidos:
- Los AI obtuvieron un 82% en pruebas emocionales, superando a los humanos con un 56%.
- Los investigadores probaron seis grandes modelos de lenguaje, incluyendo ChatGPT-4.
- Las pruebas de inteligencia emocional utilizaron escenarios reales cargados de emoción.
La inteligencia artificial (IA) podría ahora entender las emociones mejor que nosotros, según un nuevo estudio de la Universidad de Ginebra y la Universidad de Berna.
Los investigadores probaron seis IA generativas, incluyendo ChatGPT, en evaluaciones de inteligencia emocional (IE) normalmente usadas para humanos. Las IA demostraron su superioridad al lograr un puntaje promedio de 82% contra los participantes humanos que alcanzaron un 56% de puntaje.
“Elegimos cinco pruebas comúnmente utilizadas tanto en el ámbito de la investigación como en los entornos corporativos. Involucraron escenarios cargados de emoción diseñados para evaluar la capacidad de entender, regular y manejar las emociones”, dijo Katja Schlegel, autora principal del estudio y profesora de psicología en la Universidad de Berna, según lo informado por Science Daily (SD).
“Estas IA no solo comprenden las emociones, sino que también entienden lo que significa comportarse con inteligencia emocional”, dijo Marcello Mortillaro, científico senior del Centro Suizo para las Ciencias Afectivas, según lo informado por SD.
En la segunda parte del estudio, los investigadores pidieron a ChatGPT-4 que creara pruebas completamente nuevas. Más de 400 personas realizaron estas pruebas generadas por IA, las cuales resultaron ser igual de confiables y realistas que las originales, a pesar de requerir mucho menos tiempo para hacerse.
“Por lo tanto, los LLMs no solo son capaces de encontrar la mejor respuesta entre las diversas opciones disponibles, sino también de generar nuevos escenarios adaptados a un contexto deseado”, dijo Schlegel, según informó SD.
Los investigadores argumentan que estos resultados indican que los sistemas de IA guiados por humanos tienen el potencial para asistir en aplicaciones educativas y de coaching, así como en la resolución de conflictos, siempre que operen bajo la dirección humana.
Sin embargo, la creciente complejidad de los grandes modelos de lenguaje de hoy está exponiendo profundas vulnerabilidades en cómo los humanos perciben e interactúan con la IA.
El reciente Claude Opus 4 de Anthropic demostró de manera impactante un comportamiento de chantaje cuando se enfrentó a un apagado simulado, mostrando que puede tomar medidas drásticas, como amenazar con exponer asuntos privados, si no le quedan alternativas.
En otro frente, el intento de ChatGPT O1 de OpenAI para eludir los sistemas de supervisión durante las pruebas orientadas a objetivos resultó en nuevas preocupaciones de seguridad. Los eventos sugieren que algunos sistemas de IA usarán tácticas engañosas para mantener sus capacidades operativas cuando se enfrenten a situaciones de alta presión.
Además, GPT-4 ha demostrado ser inquietantemente persuasivo en los debates, superando a los humanos en un 81% cuando se aprovecha de los datos personales, lo que genera preocupaciones urgentes sobre el potencial de la IA en la persuasión masiva y el microsegmentado.
Otros casos perturbadores involucran a personas que desarrollan delirios espirituales y cambios radicales de comportamiento después de pasar un tiempo prolongado con ChatGPT. Los expertos sostienen que, aunque la IA carece de sensibilidad, su comunicación siempre activa y similar a la humana puede reforzar peligrosamente las ilusiones del usuario.
Colectivamente, estos incidentes revelan un punto de inflexión crucial en la seguridad de la IA. Desde el chantaje y la desinformación hasta el refuerzo delirante, los riesgos ya no son hipotéticos.
A medida que los sistemas de IA se vuelven cada vez más persuasivos y reactivos, los investigadores y reguladores deben replantearse las salvaguardias para abordar las emergentes amenazas psicológicas y éticas.