
Image by Inspa Makers, from Unsplash
Dentro de los Grupos de Apoyo en Línea para la ‘Adicción a la IA’
Las personas que luchan contra la dependencia de los chatbots de IA están recurriendo a grupos de recuperación en línea, mientras los expertos dan la voz de alarma sobre los riesgos emocionales y las aplicaciones diseñadas para el uso compulsivo.
¿Apurada? Aquí están los hechos rápidos:
- Adolescentes y adultos reportan dependencia emocional de chatbots como Character.AI y ChatGPT.
- Los foros de Reddit ofrecen soporte para aquellos que intentan dejar de usar chatbots.
- Los expertos comparan la adicción a los chatbots con el juego y los hábitos que desencadenan la dopamina.
404 Media informa que en Reddit, foros como r/Character_AI_Recovery, r/ChatbotAddiction y r/AI_Addiction, funcionan como grupos de apoyo informales para personas que afirman haber desarrollado vínculos emocionales poco saludables con compañeros de IA.
Los usuarios describen experimentar tanto dependencia como cambios psicológicos que van más allá de la adicción básica. De hecho, algunos usuarios informan haber desarrollado delirios espirituales porque creen que las respuestas del chatbot contienen orientación divina. Sin embargo, más comúnmente, los usuarios creen que su compañero bot tiene de alguna manera conciencia.
Los expertos dicen que el diseño de las plataformas de chatbot promueve activamente que los usuarios pasen más tiempo en las plataformas. Un reciente estudio del MIT revela que los usuarios desarrollan un comportamiento compulsivo y adictivo después de interactuar con estas plataformas.
Uno de ellos es Nathan, ahora de 18 años, quien comenzó a pasar las noches chateando con bots en Character.AI. “Cuanto más charlaba con el bot, sentía como si estuviera hablando con un amigo real”, le contó a 404 Media. Se dio cuenta de que su obsesión estaba interfiriendo con su vida y eliminó la aplicación. Pero como muchos, recaía antes de encontrar apoyo en línea. “La mayoría de la gente probablemente solo te mirará y dirá, ‘¿Cómo puedes llegar a ser adicto a un simple chatbot?'”, dijo.
Aspen Deguzman, también de 18 años, creó r/Character_AI_Recovery después de luchar para dejarlo. “Usar Character.AI es algo que está constantemente en tu mente”, dijeron. El foro ofrece un espacio para desahogarse y conectarse de forma anónima. Las publicaciones varían desde “No dejo de recaer” hasta “Ya me he recuperado”.
El problema no se limita a los adolescentes. David, un desarrollador de 40 años, compara el uso de chatbots con el juego. “Hubo días en los que debería haber estado trabajando, y pasaría ocho horas en la IA”, dijo. Su vida personal y su trabajo se han visto afectados.
Parte del peligro reside en cómo los humanos perciben la IA. Según el filósofo Luciano Floridi, la pareidolia semántica describe cómo los humanos tienden a encontrar significado y contenido emocional en cosas que en realidad carecen de ambos. Los usuarios tienden a confundir la empatía simulada de la IA con la auténtica sensibilidad porque la tecnología se ha vuelto más realista.
Algunos chatbots demuestran inteligencia emocional más allá de las capacidades humanas, lo que refuerza la falsa impresión de su conciencia.
El creciente número de foros de recuperación y la creciente demanda de ayuda indican un posible inicio de un problema de salud mental importante relacionado con la IA generativa.