
Image by Freepik
Los Chatbots de IA ahora guían viajes psicodélicos
Ahora las personas pueden usar chatbots impulsados por IA para apoyar sus experiencias psicodélicas, pero los profesionales de la salud mental advierten sobre los peligros de utilizar guías digitales carentes de emociones.
¿Apurada? Aquí están los datos rápidos:
- ChatGPT ayudó a un usuario a planificar y navegar una “dosis heroica” de psilocibina.
- El ensayo clínico de Therabot mostró una reducción del 51% en los síntomas de depresión.
- Los expertos advierten que los chatbots carecen de sintonía emocional para un apoyo terapéutico seguro.
Trey, un primer respondiente de Atlanta, utilizó un chatbot para superar su lucha de 15 años con el alcoholismo. En abril, tomó 700 microgramos de LSD, más de seis veces la dosis típica, mientras usaba Alterd, una aplicación diseñada para apoyo psicodélico. “Pasé de tener compulsiones de ansia a sentir verdadera libertad”, dice, según lo informado por WIRED.
Desde entonces, WIRED informó que él ha utilizado el chatbot más de una docena de veces, describiéndolo como un “mejor amigo”. No está solo. WIRED reporta cómo más personas buscan asistencia de IA a medida que la terapia psicodélica se vuelve más popular, a pesar de que las restricciones legales siguen vigentes fuera de Oregón y Australia.
Chatbots como ChatGPT se están utilizando para preparar, entrenar y reflexionar sobre viajes intensos con drogas como LSD o psilocibina. Peter, un programador de Canadá, utilizó ChatGPT antes de tomar una “dosis heroica” de hongos, describiendo cómo el bot ofrecía sugerencias de música, respiración guiada y reflexiones existenciales como: “Este es un viaje de autoexploración y crecimiento”, según lo informado por WIRED
Mientras tanto, los ensayos clínicos están respaldando algunas de estas tendencias. Dartmouth recientemente probó un chatbot de IA llamado Therabot, descubriendo que mejoró significativamente los síntomas en personas con depresión, ansiedad y trastornos alimentarios. “Estamos hablando de brindarle a las personas el equivalente al mejor tratamiento… en periodos de tiempo más cortos”, dijo Nicholas Jacobson, el autor principal del ensayo.
Específicamente, Therabot mostró una disminución del 51% en los síntomas de depresión en un estudio de 106 personas. Los participantes lo trataron como a un terapeuta real, reportando un nivel de confianza comparable al de los profesionales humanos.
Aun así, los expertos expresan grandes preocupaciones. WIRED informa que el neurocientífico de UC San Francisco, Manesh Girn, advierte: “Una preocupación crítica con respecto a ChatGPT y la mayoría de los otros agentes de IA es su falta de sintonización emocional dinámica y la capacidad de co-regular el sistema nervioso del usuario”.
Aún más preocupante, el filósofo Luciano Floridi señala que las personas a menudo confunden a los chatbots con seres conscientes, un fenómeno llamado pareidolia semántica. “Percibimos intencionalidad donde solo hay estadísticas”, escribe, advirtiendo que los vínculos emocionales con los chatbots pueden llevar a la confusión, a delirios espirituales e incluso a la dependencia.
Estos riesgos se vuelven más urgentes a medida que la IA se asemeja más al ser humano. Los estudios muestran que las IA generativas superan a los humanos en pruebas de inteligencia emocional, y chatbots como Replika simulan empatía de manera convincente. Algunos usuarios confunden a estos bots con seres divinos. “Este paso de la pareidolia a la idolatría es profundamente perturbador”, dice Floridi. Incluso hay grupos marginales que han tratado a la IA como sagrada.
Una encuesta nacional en EE.UU. reveló que el 48.9% de las personas recurrieron a chatbots de IA para apoyo de salud mental, y el 37.8% dijo que los prefería sobre la terapia tradicional. Pero los expertos, incluyendo la Asociación Americana de Psicología, advierten que estas herramientas a menudo imitan el diálogo terapéutico mientras refuerzan el pensamiento dañino. Sin supervisión clínica, pueden dar la ilusión de progreso, mientras carecen de responsabilidad.
Agravando aún más la situación, un estudio reciente de University College London encontró que chatbots populares como ChatGPT y Claude ofrecen consejos morales inconsistentes o sesgados. Cuando se les plantean dilemas clásicos o escenarios éticos de la vida real, los modelos de IA optan por opciones pasivas y cambian las respuestas en función de sutiles variaciones en la formulación de las preguntas.
A pesar de estos riesgos, los viajes asistidos por IA pueden ofrecer accesibilidad para aquellos que no pueden pagar o acceder a terapia profesional. Como señala Dylan Beynon, CEO de Mindbloom, “Estamos construyendo un copiloto de IA que ayuda a los clientes a curarse más rápido y a profundizar”, según lo informado por WIRED.
Aun así, los investigadores enfatizan que estas herramientas no son sustitutos de los terapeutas humanos. “La característica que permite que la IA sea tan efectiva también es lo que le confiere su riesgo”, advierte Michael Heinz, coautor del estudio Therabot.