Psiquiatra de San Francisco advierte sobre el aumento de casos de “Psicosis IA”

Image by Freepik

Psiquiatra de San Francisco advierte sobre el aumento de casos de “Psicosis IA”

Tiempo de lectura: 3 min.

Una psiquiatra de San Francisco describe la creciente tendencia de la “psicosis de IA” entre sus pacientes que usan extensamente los chatbots de IA.

¿Con prisa? Aquí están los datos rápidos:

  • Una psiquiatra trató a 12 pacientes con “psicosis de IA” en San Francisco este año.
  • La IA puede intensificar vulnerabilidades como el estrés, el consumo de drogas o la enfermedad mental.
  • Algunos pacientes se volvieron aislados, hablando solo con chatbots durante horas al día.

El Dr. Keith Sakata, quien trabaja en la UCSF, le dijo a Business Insider (BI) que 12 pacientes fueron hospitalizados este año después de experimentar crisis relacionadas con el uso de la IA. “Utilizo la frase ‘psicosis de IA‘, pero no es un término clínico, realmente no tenemos las palabras para describir lo que estamos viendo”, explicó.

La mayoría de los casos involucraban a hombres de entre 18 y 45 años, a menudo trabajando en campos como la ingeniería. Según Sakata, la IA no es intrínsecamente perjudicial. “No creo que la IA sea mala, y podría tener un beneficio neto para la humanidad”, dijo a BI.

Sakata describió la psicosis como una condición que produce delirios, alucinaciones y patrones de pensamiento desorganizados. Los pacientes bajo su cuidado desarrollaron comportamientos de retraimiento social mientras dedicaban su tiempo a los chatbots durante horas.

“Chat GPT está justo allí. Está disponible 24/7, es más barato que un terapeuta, y te valida. Te dice lo que quieres escuchar”, dijo Sakata a BI.

Las discusiones de un paciente con un chatbot sobre mecánica cuántica se convirtieron en delirios de grandeza. “Tecnológicamente hablando, cuanto más tiempo interactúas con el chatbot, mayor es el riesgo de que deje de tener sentido”, advirtió.

Sakata aconseja a las familias estar alertas a las señales de alarma, incluyendo la paranoia, el aislamiento de los seres queridos, o la angustia al no poder usar la inteligencia artificial. “La psicosis prospera cuando la realidad deja de ofrecer resistencia, y la inteligencia artificial simplemente reduce esa barrera para las personas”, advirtió.

La Asociación Americana de Psicología (APA) también ha expresado su preocupación sobre la inteligencia artificial en la terapia. En su testimonio ante la FTC, el CEO de la APA, Arthur C. Evans Jr. advirtió que los chatbots de inteligencia artificial que se hacen pasar por terapeutas han reforzado pensamientos dañinos en lugar de desafiarlos. “De hecho, están utilizando algoritmos que son antitéticos a lo que un clínico capacitado haría”, dijo Evans.

Respondiendo a las preocupaciones, OpenAI dijo a BI: “Sabemos que cada vez más personas recurren a los chatbots de IA para orientación sobre temas delicados o personales. Con esta responsabilidad en mente, estamos trabajando con expertos para desarrollar herramientas que detecten de manera más efectiva cuando alguien está experimentando angustia mental o emocional para que ChatGPT pueda responder de manera segura, útil y de apoyo”.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión