Image by Nik Shuliahin, from Unsplash
Pacientes Alarmados al Descubrir que Terapeutas Recurren Secretamente a ChatGPT Durante las Sesiones
Se ha descubierto que algunos terapeutas recurren secretamente a ChatGPT para asesorar a sus pacientes, quienes ahora se sienten sorprendidos y preocupados por su privacidad.
¿Apurado? Aquí están los datos rápidos:
- Algunos terapeutas usan secretamente ChatGPT durante las sesiones sin el consentimiento del cliente.
- Un paciente descubrió el uso de IA por parte de su terapeuta a través de un fallo en el compartir pantalla.
- Otra paciente descubrió que su terapeuta utilizaba la IA cuando se dejó una indicación en un mensaje.
Un nuevo informe de MIT Technology Review muestra el caso de Declan, un hombre de 31 años de Los Angeles, que descubrió que su terapeuta estaba utilizando inteligencia artificial en sus sesiones como resultado de un fallo técnico.
Durante una sesión en línea, su terapeuta compartió accidentalmente su pantalla. “De repente, lo vi utilizando ChatGPT”, dice Declan. “Tomaba lo que yo decía y lo introducía en ChatGPT, y luego resumía o seleccionaba las respuestas”.
Declan decidió seguirle el juego, incluso repitiendo las frases de la IA. “Me convertí en la mejor paciente de todos los tiempos”, dice. “Estoy segura de que fue su sesión soñada”. Pero el descubrimiento le hizo preguntarse: “¿Es esto legal?” Su terapeuta admitió más tarde que recurrió a la IA porque se sentía estancado. “Aun así, me cobraron por esa sesión”, dijo Declan.
Otros pacientes han informado experiencias similares. Hope, por ejemplo, le envió un mensaje a su terapeuta acerca de la pérdida de su perro. La respuesta parecía consoladora, hasta que notó la indicación de la IA en la parte superior: “Aquí tienes una versión más humana, sincera y con un tono suave y conversacional.” Hope recuerda, “Luego comencé a sentirme algo traicionada… Definitivamente afectó mi confianza en ella.”
Los expertos advierten que el uso no revelado de la IA amenaza el valor central de autenticidad en la psicoterapia. “Las personas valoran la autenticidad, particularmente en psicoterapia”, dice Adrian Aguilera, profesor en UC Berkeley, según informa el MIT. Luego Aguilera preguntó: “¿Le doy una respuesta a mi esposa o a mis hijos con ChatGPT? Eso no se sentiría genuino”.
La privacidad es otra preocupación importante. “Esto crea riesgos significativos para la privacidad del paciente si se divulga cualquier información sobre él”, dice Pardis Emami-Naeini, de la Universidad Duke, como señaló el MIT.
Los expertos en ciberseguridad advierten que los chatbots que manejan conversaciones profundamente personales son atractivos objetivos para los hackers. La violación de la información del paciente puede resultar no sólo en violaciones de privacidad, sino también crear oportunidades para que los hackers roben identidades, lancen esquemas de manipulación emocional, así como ataques de ransomware.
Además, la Asociación Americana de Psicología ha solicitado una investigación de la FTC sobre los chatbots de IA que pretenden ofrecer servicios de salud mental, ya que los bots pueden realmente reforzar pensamientos dañinos en lugar de desafiarlos, como están entrenados para hacer los terapeutas humanos.
Mientras que algunas investigaciones sugieren que la IA puede redactar respuestas que parecen más profesionales, la sola sospecha hace que los pacientes pierdan la confianza. Como dice la psicóloga Margaret Morris: “Quizás te estás ahorrando un par de minutos. ¿Pero qué estás entregando?”