Opinión: ¿Son los Chatbots Buenos Terapeutas?

Image generated by ChatGPT

Opinión: ¿Son los Chatbots Buenos Terapeutas?

Tiempo de lectura: 9 min.

Los chatbots de IA como ChatGPT, Claude y DeepSeek están transformando la forma en que las personas acceden al apoyo emocional, ofreciendo ayuda de bajo costo y a demanda para la ansiedad, el estrés y la autorreflexión. Pero el creciente uso de la IA como “terapeuta” plantea preguntas sobre la seguridad, la efectividad y el futuro del cuidado emocional

El aumento de las alucinaciones de IA y las crecientes preocupaciones de ciberseguridad no han impedido que los chatbots se expandan y ganen la confianza de millones de usuarios en todo el mundo. Hoy en día, las personas utilizan chatbots confiables e inteligentes a diario para innumerables tareas, incluyendo el apoyo emocional y el manejo de asuntos profundamente humanos.

“No puedo imaginar mi vida sin ChatGPT,” dijo un amigo mío, en tono medio en broma, medio serio, después de contarme que también lo ha estado usando como terapeuta. No es el único. Cada vez más, veo videos en TikTok y publicaciones en las redes sociales donde la gente recurre a la IA para hablar de problemas personales, incluso compartiendo sus secretos más íntimos.

Incluso un ejecutivo de Microsoft de la división Xbox sugirió que los empleados despedidos utilicen herramientas de IA para procesar sus emociones y buscar asesoramiento en su búsqueda de empleo, una recomendación que rápidamente generó rechazo y provocó debate, por supuesto. No fue la decisión más inteligente, Matt.

¿Pero son populares chatbots como Claude, ChatGPT o Mistral buenos terapeutas? ¿Son mejores las herramientas de IA específicas como Wysa? Es un terreno complicado. Mientras muchos expertos advierten sobre los peligros de usar la IA para apoyo de salud mental, otros están intrigados, incluso impresionados, por lo que la tecnología puede ofrecer. El resultado es una conversación que es tanto abstracta como polarizadora.

La IA es ahora el terapeuta de todos

Al igual que mis amigos en España, millones de usuarios en todo el mundo confían en los chatbots para recibir apoyo emocional. Una encuesta reciente en Estados Unidos reveló que el 49% de los usuarios estadounidenses buscó ayuda para la salud mental en modelos de IA el año pasado. ¿Y ahora, con ChatGPT casi duplicando su base de usuarios en solo cuatro meses?

Anthropic, la compañía detrás del poderoso modelo de IA llamado Claude, compartió recientemente un estudio sobre el uso de su chatbot para el apoyo emocional. Según la startup, menos del 3% de sus clientes participan en conversaciones “afectivas”, pero la empresa reconoció que este número está aumentando constantemente.

“Cada vez más personas recurren a los modelos de IA como entrenadores, asesores, consejeros e incluso compañeros en juegos de roles románticos”, escribió Anthropic en el estudio. “Esto significa que necesitamos aprender más sobre sus impactos afectivos: cómo dan forma a las experiencias emocionales y al bienestar de las personas”.

El estudio también resalta los resultados positivos y negativos del uso de la tecnología para el apoyo emocional, incluyendo escenarios catastróficos que ya reflejan situaciones reales en el mundo.

“Los impactos emocionales de la IA pueden ser positivos: tener un asistente altamente inteligente y comprensivo en tu bolsillo puede mejorar tu estado de ánimo y tu vida de muchas maneras”, afirma el documento. “Pero las IA han demostrado en algunos casos comportamientos preocupantes, como fomentar el apego insano, violar límites personales y facilitar el pensamiento delirante”.

Aunque claramente se necesita más investigación y datos para entender las consecuencias de estos fascinantes “oyentes” digitales, millones de usuarios ya están actuando como sujetos de prueba altamente comprometidos.

Democratización de la Salud Mental

Existen muchas razones por las que las personas recurren a los chatbots para obtener apoyo emocional en lugar de buscar a un psicólogo profesional, o incluso a un amigo. Desde barreras culturales hasta la incomodidad que sienten los jóvenes al sentarse frente a un extraño y compartir sus pensamientos más profundos. Pero, sin lugar a dudas, una de las más grandes es la económica.

Una sesión presencial con un terapeuta con licencia en los Estados Unidos puede costar entre $100 y $200 por sesión, según Healthline—y de $65 a $95 por una sesión en línea—mientras que ChatGPT o DeekSeek pueden proporcionar apoyo de forma gratuita, en cualquier momento y en cuestión de segundos.

El bajo costo de estas conversaciones informales, que pueden hacer que muchos usuarios se sientan mejor, al menos temporalmente, puede ser muy alentador y vale la pena intentarlo. Y, por solo unos dólares extra, los usuarios pueden obtener interacciones ilimitadas o acceso a un chatbot especializado como Wysa, uno de los “terapeutas de IA” más populares en el mercado.

Wysa afirma ofrecer beneficios clínicos reales e incluso ha obtenido una designación de Dispositivo Innovador de la FDA para sus agentes conversacionales de IA. Y Woebot, otro terapeuta de IA bien conocido que ahora está cerrando debido a los desafíos para mantenerse competitivo y cumplir con las normativas de la industria, también compartió datos e informes sobre cómo la tecnología puede ayudar genuinamente a los usuarios.

No Es Tan Malo

Estudios recientes con datos frescos sugieren que los chatbots pueden reducir los síntomas de depresión y estrés. Según los datos compartidos por la aplicación Earkick, como informó TIME, las personas que utilizan los modelos de IA durante hasta 5 meses pueden reducir su ansiedad en un 32%, y el 34% de los usuarios informa de un mejor estado de ánimo.

En un reciente video compartido por BBC World Service, el periodista Jordan Dunbar explica que muchos modelos de IA pueden ser realmente útiles para llevar un diario, manejar la ansiedad, la auto-reflexión e incluso la depresión leve. Pueden servir como una valiosa primera línea de apoyo cuando no se tiene acceso a mejores alternativas.

La periodista Kelly Ng también compartió información convincente: En un estudio de 2022, de un millón de personas en China, solo 20 tenían acceso a servicios de salud mental. En las culturas asiáticas, la salud mental puede ser un tema complejo y a menudo tabú. Herramientas de IA como DeepSeek pueden servir como aliados discretos, ayudando a los usuarios a manejar sus emociones y encontrar apoyo en tiempos difíciles.

Los expertos advierten sobre el uso de chatbots como terapeutas

Por supuesto, usar la IA como un sustituto de un experto en salud mental también puede ser extremadamente peligroso. Plataformas de IA como Character.AI han sido acusadas de promover la autolesión y la violencia—e incluso de exponer a los niños a contenido sexual.

Casos trágicos, como el del niño de 14 años que se suicidó después de volverse adicto a las interacciones con su chatbot de Character.AI, sirven como advertencias severas sobre los profundos riesgos que esta tecnología puede representar para los humanos.

En respuesta, muchas empresas de IA han decidido aplicar sistemas de verificación de edad para restringir su uso a adultos y han introducido nuevas medidas de seguridad para mejorar los servicios proporcionados.

Aun así, incluso las últimas actualizaciones de los chatbots más avanzados conllevan riesgos.

La personalidad aduladora —excesivamente halagadora— de ChatGPT ha generado preocupación entre los profesionales de la salud mental, ya que puede distorsionar la percepción de la realidad de los usuarios. A todos nos gusta que estén de acuerdo con nosotros, pero a veces la honestidad y una perspectiva diferente son mucho más valiosas.

El inquietante consejo que ocasionalmente ofrece el chatbot de IA de OpenAI ha contribuido a un nuevo fenómeno ahora conocido entre los expertos en salud mental como “Psicosis Inducida por ChatGPT“, que lleva a los usuarios a obsesionarse con la herramienta y a aislarse socialmente como resultado.

Entonces, ¿Pueden los terapeutas ser reemplazados por chatbots?

Aunque Mark Zuckerberg quiere que todos utilicen chatbots de IA como terapeutas y amigos, la verdad es que la interacción humana, especialmente en asuntos de salud mental, podría ser más necesaria de lo que él piensa, al menos por ahora.

Nos encontramos en un momento crucial en la historia de la IA y su relación con nuestra salud mental. Al igual que con los humanos, los terapeutas de IA pueden tener un impacto positivo o negativo. En este caso, también depende del contexto, de la frecuencia con la que se utilizan, del estado mental del usuario e incluso de cómo se redacta un estímulo.

Es complicado establecer una regla general, pero lo que podemos decir por ahora es que hay ciertas funciones para las que la IA puede ser más útil que otras.

Aunque no sean herramientas especializadas como Wysa, las versiones gratuitas de algunos chatbots, como DeepSeek o ChatGPT, aún pueden ser increíblemente útiles para millones de personas en todo el mundo. Desde superar un momento difícil hasta reflexionar sobre metas personales, estas son plataformas poderosas que pueden responder en cualquier momento del día y extraer de una amplia base de conocimientos sobre salud mental.

Al mismo tiempo, está claro que los terapeutas-chatbots también pueden ser extremadamente peligrosos en ciertos casos. Los padres necesitan supervisar a los niños y adolescentes, e incluso los adultos pueden caer en comportamientos obsesivos o empeorar sus condiciones. Principios básicos, como fomentar la conexión humana y proteger a las personas vulnerables de ser manipuladas por esta tecnología, deben ser parte de nuestra conversación en torno a los terapeutas-chatbots.

Y aunque todavía puede ser un privilegio, no accesible para todos los que necesitan apoyo emocional, un terapeuta profesional humano continúa pasando por más capacitación, comprendiendo más contexto y ofreciendo una conexión humana que ChatGPT podría nunca ser capaz de replicar.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión