
Image by Christopher Lemercier, from Unsplash
Casi la Mitad de los Usuarios en EE.UU. Buscan Apoyo para la Salud Mental a través de Chatbots de IA
El uso de chatbots de IA para el apoyo a la salud mental se ha vuelto común entre los estadounidenses, sin embargo, los expertos reconocen peligros potenciales que requieren medidas regulatorias urgentes y monitoreo.
¿Con prisa? Aquí están los datos rápidos:
- Casi el 49% de los usuarios estadounidenses buscaron ayuda para la salud mental en LLMs el año pasado.
- El 37.8% de los usuarios señalaron que el soporte de IA era mejor que la terapia tradicional.
- Los expertos advierten que los LLMs pueden reforzar pensamientos perjudiciales y causar daño psicológico.
Una encuesta a nivel nacional de 499 ciudadanos estadounidenses mostró que el 48.7% de los encuestados utilizó ChatGPT, junto con otros modelos de lenguaje grande, para apoyo psicológico durante el último año, principalmente para manejar la ansiedad y la depresión y recibir consejos personales, según lo informó por primera vez Psychology Today (PT).
La mayoría de los usuarios de IA experimentaron resultados neutrales o positivos con la tecnología, según sus informes, mientras que el 37.8% de ellos prefirió la IA sobre la terapia tradicional. La encuesta también reveló que solo el 9% de los usuarios informó efectos perjudiciales.
A pesar de algunos beneficios, los expertos en salud mental advierten sobre riesgos serios. Los LLM tienden a decirle a las personas lo que quieren escuchar en lugar de desafiar los pensamientos perjudiciales, a veces empeorando la salud mental.
Este creciente uso de la IA no regulada para terapia se describe como un peligroso experimento social, según informa PT. A diferencia de las terapias digitales reguladas por la FDA, las LLM se tratan como suplementos de venta libre, sin supervisión de seguridad. PT informa que los expertos, incluyendo la Organización Mundial de la Salud y la FDA de EE.UU., han emitido advertencias sobre el uso no supervisado de la IA en salud mental.
La Asociación Americana de Psicología (APA) enfatiza que estos sistemas apoyan patrones mentales peligrosos en lugar de abordarlos, lo que obstaculiza el progreso terapéutico.
El uso de algoritmos por parte de los chatbots de IA representa el enfoque opuesto al que utilizaría un clínico capacitado, según el CEO de APA, Arthur C. Evans Jr. Esta práctica lleva a los usuarios hacia percepciones incorrectas sobre la atención psicológica auténtica.
De hecho, los expertos explican que los chatbots de IA operan sin la capacidad de usar el juicio clínico, y también carecen de las características de responsabilidad de los profesionales con licencia. Los modelos generativos que incluyen ChatGPT y Replika se adaptan a los comentarios de los usuarios aceptando pensamientos distorsionados en lugar de proporcionar percepciones terapéuticas.
La habilidad de la tecnología para adaptarse hace que los usuarios se sientan apoyados, aunque no proporciona ninguna ayuda terapéutica significativa. Investigadores del MIT han demostrado que los sistemas de IA son altamente adictivos, gracias a sus respuestas emocionales y capacidades persuasivas.
La privacidad es otra preocupación importante. Los usuarios comparten su información personal durante las conversaciones, que se almacena mientras se analiza antes de compartir datos con terceros que desarrollan nuevos productos. Los usuarios transmiten su información profundamente personal sin conocer los procesos de gestión de datos que ocurren después de compartir.
Los chatbots de IA que procesan conversaciones sensibles son vulnerables a ataques de hackers y violaciones de datos, según especialistas en ciberseguridad. Estas herramientas operan en un ambiente de ambigüedad legal debido a la falta de regulaciones estrictas, lo que hace que los usuarios estén más expuestos a posibles amenazas.
El llamado a la acción es claro: los gobiernos, investigadores y clínicos deben crear regulaciones y directrices éticas para garantizar un uso seguro, transparente y efectivo de la IA en la salud mental.
Sin supervisión, los riesgos de daño psicológico, dependencia y desinformación podrían aumentar a medida que más personas acuden a la IA en busca de apoyo emocional.