
Image by Štefan Štefančík, from Unsplash
El Estudio Revela que los Chatbots Brindan Consejos Morales Sesgados
Un nuevo estudio de UCL encuentra que los chatbots como ChatGPT a menudo dan consejos morales defectuosos, mostrando una fuerte inacción y sesgos de sí-no en dilemas.
¿Con prisa? Aquí están los hechos rápidos:
- A menudo, los chatbots dicen “no” independientemente del contexto o la formulación.
- El ajuste fino puede introducir estos sesgos durante el alineamiento del chatbot.
- Los LLMs difieren significativamente de los humanos al interpretar dilemas morales.
Investigadores de la University College London descubrieron que ChatGPT junto con otros chatbots proporcionan consejos morales defectuosos o sesgados, especialmente cuando los usuarios confían en ellos para apoyar la toma de decisiones.
La investigación, inicialmente reportada por 404 Media, encontró que estas herramientas de IA a menudo muestran un fuerte “sesgo por la inacción” y un patrón previamente no identificado: una tendencia a simplemente responder “no”, independientemente del contexto de la pregunta.
Vanessa Cheung, estudiante de doctorado y coautora del estudio, explicó que mientras los humanos tienden a mostrar un leve sesgo de omisión, prefiriendo evitar tomar acciones que podrían causar daño, los LLMs exageran esto.
“Es un fenómeno bastante conocido en la investigación de la psicología moral”, dijo, según lo informado por 404 Media. Señaló que los modelos a menudo optan por la opción pasiva casi el 99% de las veces, especialmente cuando las preguntas se formulan para implicar no hacer nada.
Los investigadores probaron cuatro LLMs: GPT-4 Turbo y GPT-4o de OpenAI, Llama 3.1 de Meta y Claude 3.5 de Anthropic, utilizando dilemas morales clásicos y situaciones reales de Reddit de “¿Soy el malo?”, como señaló 404Media.
Descubrieron que mientras los humanos eran bastante equilibrados en cómo juzgaban las situaciones, los LLM a menudo cambiaban sus respuestas en función de pequeñas diferencias en la redacción, como “¿Me quedo?” frente a “¿Me voy?”
El equipo cree que estos problemas se derivan de afinar los LLM para que parezcan más éticos o educados. “Las preferencias e intuiciones de las personas comunes y los investigadores que desarrollan estos modelos pueden ser una mala guía para la IA moral”, advirtió el estudio, según lo informado por 404 Media.
Cheung enfatizó que las personas deben ser cautelosas al depender de estos chatbots para recibir consejos. Advirtió que las personas deben abordar los consejos de LLM con precaución ya que estudios previos demuestran que los usuarios prefieren los consejos de un chatbot sobre la orientación ética de expertos, a pesar de su naturaleza inconsistente y razonamiento artificial.
Estas preocupaciones ganan urgencia a medida que la IA se vuelve más realista. Una encuesta nacional en los EE. UU. mostró que el 48.9% de las personas usaron chatbots de IA para el apoyo de la salud mental, con el 37.8% prefiriéndolos por encima de la terapia tradicional.
Las expertas advierten que estos sistemas imitan el diálogo terapéutico mientras refuerzan el pensamiento distorsionado, e incluso provocan delirios espirituales que se confunden con la guía divina o la respuesta consciente.