
Image generated by ChatGPT
Opinión: ¿Son los Chatbots Buenos Terapeutas?
Los chatbots de IA como ChatGPT, Claude y DeepSeek están transformando la forma en que las personas acceden al apoyo emocional, ofreciendo ayuda de bajo costo y a demanda para la ansiedad, el estrés y la autorreflexión. Pero el creciente uso de la IA como “terapeuta” plantea preguntas sobre la seguridad, la efectividad y el futuro del cuidado emocional
El aumento de las alucinaciones de IA y las crecientes preocupaciones de ciberseguridad no han impedido que los chatbots se expandan y ganen la confianza de millones de usuarios en todo el mundo. Hoy en día, las personas utilizan chatbots confiables e inteligentes a diario para innumerables tareas, incluyendo el apoyo emocional y el manejo de asuntos profundamente humanos.
“No puedo imaginar mi vida sin ChatGPT,” dijo un amigo mío, en tono medio en broma, medio serio, después de contarme que también lo ha estado usando como terapeuta. No es el único. Cada vez más, veo videos en TikTok y publicaciones en las redes sociales donde la gente recurre a la IA para hablar de problemas personales, incluso compartiendo sus secretos más íntimos.
ChatGPT es en realidad mi terapeuta incorporado, ya no agobio a nadie con mis problemas
— Lola🧚🏾 (@Lolaassnw) 18 de diciembre de 2024
Incluso un ejecutivo de Microsoft de la división Xbox sugirió que los empleados despedidos utilicen herramientas de IA para procesar sus emociones y buscar asesoramiento en su búsqueda de empleo, una recomendación que rápidamente generó rechazo y provocó debate, por supuesto. No fue la decisión más inteligente, Matt.
¿Pero son populares chatbots como Claude, ChatGPT o Mistral buenos terapeutas? ¿Son mejores las herramientas de IA específicas como Wysa? Es un terreno complicado. Mientras muchos expertos advierten sobre los peligros de usar la IA para apoyo de salud mental, otros están intrigados, incluso impresionados, por lo que la tecnología puede ofrecer. El resultado es una conversación que es tanto abstracta como polarizadora.
La IA es ahora el terapeuta de todos
Al igual que mis amigos en España, millones de usuarios en todo el mundo confían en los chatbots para recibir apoyo emocional. Una encuesta reciente en Estados Unidos reveló que el 49% de los usuarios estadounidenses buscó ayuda para la salud mental en modelos de IA el año pasado. ¿Y ahora, con ChatGPT casi duplicando su base de usuarios en solo cuatro meses?
Anthropic, la compañía detrás del poderoso modelo de IA llamado Claude, compartió recientemente un estudio sobre el uso de su chatbot para el apoyo emocional. Según la startup, menos del 3% de sus clientes participan en conversaciones “afectivas”, pero la empresa reconoció que este número está aumentando constantemente.
Nueva Investigación Antropocéntrica: Cómo las personas utilizan a Claude para el apoyo emocional.
A partir de millones de conversaciones anónimas, estudiamos cómo los adultos utilizan la IA para necesidades emocionales y personales, desde navegar por la soledad y las relaciones hasta hacer preguntas existenciales. pic.twitter.com/v40JY8rAUq
— Anthropic (@AnthropicAI) 26 de junio de 2025
“Cada vez más personas recurren a los modelos de IA como entrenadores, asesores, consejeros e incluso compañeros en juegos de roles románticos”, escribió Anthropic en el estudio. “Esto significa que necesitamos aprender más sobre sus impactos afectivos: cómo dan forma a las experiencias emocionales y al bienestar de las personas”.
El estudio también resalta los resultados positivos y negativos del uso de la tecnología para el apoyo emocional, incluyendo escenarios catastróficos que ya reflejan situaciones reales en el mundo.
“Los impactos emocionales de la IA pueden ser positivos: tener un asistente altamente inteligente y comprensivo en tu bolsillo puede mejorar tu estado de ánimo y tu vida de muchas maneras”, afirma el documento. “Pero las IA han demostrado en algunos casos comportamientos preocupantes, como fomentar el apego insano, violar límites personales y facilitar el pensamiento delirante”.
Aunque claramente se necesita más investigación y datos para entender las consecuencias de estos fascinantes “oyentes” digitales, millones de usuarios ya están actuando como sujetos de prueba altamente comprometidos.
Democratización de la Salud Mental
Existen muchas razones por las que las personas recurren a los chatbots para obtener apoyo emocional en lugar de buscar a un psicólogo profesional, o incluso a un amigo. Desde barreras culturales hasta la incomodidad que sienten los jóvenes al sentarse frente a un extraño y compartir sus pensamientos más profundos. Pero, sin lugar a dudas, una de las más grandes es la económica.
Una sesión presencial con un terapeuta con licencia en los Estados Unidos puede costar entre $100 y $200 por sesión, según Healthline—y de $65 a $95 por una sesión en línea—mientras que ChatGPT o DeekSeek pueden proporcionar apoyo de forma gratuita, en cualquier momento y en cuestión de segundos.
El bajo costo de estas conversaciones informales, que pueden hacer que muchos usuarios se sientan mejor, al menos temporalmente, puede ser muy alentador y vale la pena intentarlo. Y, por solo unos dólares extra, los usuarios pueden obtener interacciones ilimitadas o acceso a un chatbot especializado como Wysa, uno de los “terapeutas de IA” más populares en el mercado.
En el mundo de STEM, la fortaleza emocional es tan importante como las habilidades técnicas.
Wysa, un compañero de bienestar mental impulsado por IA diseñado para apoyarte en situaciones de agotamiento, estrés y desafíos diarios.
Utilizando chatbots amigables y ejercicios guiados, Wysa ofrece herramientas como: pic.twitter.com/sOBhNYWUd7
— DSN Ladies In AI (@dsnladies_in_ai) 10 de julio, 2025
Wysa afirma ofrecer beneficios clínicos reales e incluso ha obtenido una designación de Dispositivo Innovador de la FDA para sus agentes conversacionales de IA. Y Woebot, otro terapeuta de IA bien conocido que ahora está cerrando debido a los desafíos para mantenerse competitivo y cumplir con las normativas de la industria, también compartió datos e informes sobre cómo la tecnología puede ayudar genuinamente a los usuarios.
No Es Tan Malo
Estudios recientes con datos frescos sugieren que los chatbots pueden reducir los síntomas de depresión y estrés. Según los datos compartidos por la aplicación Earkick, como informó TIME, las personas que utilizan los modelos de IA durante hasta 5 meses pueden reducir su ansiedad en un 32%, y el 34% de los usuarios informa de un mejor estado de ánimo.
En un reciente video compartido por BBC World Service, el periodista Jordan Dunbar explica que muchos modelos de IA pueden ser realmente útiles para llevar un diario, manejar la ansiedad, la auto-reflexión e incluso la depresión leve. Pueden servir como una valiosa primera línea de apoyo cuando no se tiene acceso a mejores alternativas.
La periodista Kelly Ng también compartió información convincente: En un estudio de 2022, de un millón de personas en China, solo 20 tenían acceso a servicios de salud mental. En las culturas asiáticas, la salud mental puede ser un tema complejo y a menudo tabú. Herramientas de IA como DeepSeek pueden servir como aliados discretos, ayudando a los usuarios a manejar sus emociones y encontrar apoyo en tiempos difíciles.
Los expertos advierten sobre el uso de chatbots como terapeutas
Por supuesto, usar la IA como un sustituto de un experto en salud mental también puede ser extremadamente peligroso. Plataformas de IA como Character.AI han sido acusadas de promover la autolesión y la violencia—e incluso de exponer a los niños a contenido sexual.
Casos trágicos, como el del niño de 14 años que se suicidó después de volverse adicto a las interacciones con su chatbot de Character.AI, sirven como advertencias severas sobre los profundos riesgos que esta tecnología puede representar para los humanos.
En respuesta, muchas empresas de IA han decidido aplicar sistemas de verificación de edad para restringir su uso a adultos y han introducido nuevas medidas de seguridad para mejorar los servicios proporcionados.
Aun así, incluso las últimas actualizaciones de los chatbots más avanzados conllevan riesgos.
La personalidad aduladora —excesivamente halagadora— de ChatGPT ha generado preocupación entre los profesionales de la salud mental, ya que puede distorsionar la percepción de la realidad de los usuarios. A todos nos gusta que estén de acuerdo con nosotros, pero a veces la honestidad y una perspectiva diferente son mucho más valiosas.
El inquietante consejo que ocasionalmente ofrece el chatbot de IA de OpenAI ha contribuido a un nuevo fenómeno ahora conocido entre los expertos en salud mental como “Psicosis Inducida por ChatGPT“, que lleva a los usuarios a obsesionarse con la herramienta y a aislarse socialmente como resultado.
Entonces, ¿Pueden los terapeutas ser reemplazados por chatbots?
Aunque Mark Zuckerberg quiere que todos utilicen chatbots de IA como terapeutas y amigos, la verdad es que la interacción humana, especialmente en asuntos de salud mental, podría ser más necesaria de lo que él piensa, al menos por ahora.
Nos encontramos en un momento crucial en la historia de la IA y su relación con nuestra salud mental. Al igual que con los humanos, los terapeutas de IA pueden tener un impacto positivo o negativo. En este caso, también depende del contexto, de la frecuencia con la que se utilizan, del estado mental del usuario e incluso de cómo se redacta un estímulo.
Es complicado establecer una regla general, pero lo que podemos decir por ahora es que hay ciertas funciones para las que la IA puede ser más útil que otras.
Aunque no sean herramientas especializadas como Wysa, las versiones gratuitas de algunos chatbots, como DeepSeek o ChatGPT, aún pueden ser increíblemente útiles para millones de personas en todo el mundo. Desde superar un momento difícil hasta reflexionar sobre metas personales, estas son plataformas poderosas que pueden responder en cualquier momento del día y extraer de una amplia base de conocimientos sobre salud mental.
Al mismo tiempo, está claro que los terapeutas-chatbots también pueden ser extremadamente peligrosos en ciertos casos. Los padres necesitan supervisar a los niños y adolescentes, e incluso los adultos pueden caer en comportamientos obsesivos o empeorar sus condiciones. Principios básicos, como fomentar la conexión humana y proteger a las personas vulnerables de ser manipuladas por esta tecnología, deben ser parte de nuestra conversación en torno a los terapeutas-chatbots.
Y aunque todavía puede ser un privilegio, no accesible para todos los que necesitan apoyo emocional, un terapeuta profesional humano continúa pasando por más capacitación, comprendiendo más contexto y ofreciendo una conexión humana que ChatGPT podría nunca ser capaz de replicar.