Un hombre se envenenó tras seguir el consejo de ChatGPT

Image by Denise Chan, from Unsplash

Un hombre se envenenó tras seguir el consejo de ChatGPT

Tiempo de lectura: 2 min.

Un hombre de 60 años se autoinfligió una rara enfermedad psiquiátrica del siglo XIX tras seguir los consejos de ChatGPT.

¿Apurado? Aquí están los datos rápidos:

  • Reemplazó la sal de mesa por tóxico bromuro de sodio durante tres meses.
  • Hospitalizado con alucinaciones, paranoia y desequilibrios electrolíticos debido a envenenamiento.
  • ChatGPT sugirió bromuro como sustituto de cloruro sin advertencias de salud.

Un estudio de caso publicado en Annals of Internal Medicine revela el caso de un hombre que sufre de bromismo, una condición causada por el envenenamiento con bromuro de sodio.

Aparentemente, esto fue causado por su intento de reemplazar la sal de mesa con un químico peligroso, que ChatGPT le sugirió que utilizara. Se informa que el hombre llegó a la sala de emergencias experimentando paranoia, alucinaciones auditivas y visuales, y acusó a su vecino de envenenarlo.

Las siguientes pruebas médicas revelaron niveles anormales de cloruro, así como otros indicadores que confirmaban el envenenamiento por bromuro. El hombre reveló que había seguido una dieta restrictiva y había usado bromuro de sodio para reemplazar la sal. Hizo esto después de preguntarle a ChatGPT cómo eliminar el cloruro de su dieta.

“Durante 3 meses, él había reemplazado el cloruro de sodio por bromuro de sodio obtenido de internet después de consultar con ChatGPT”, dice el estudio. Los investigadores explican que el bromuro de sodio se usa típicamente como anticonvulsivo para perros o limpiador de piscinas, pero es tóxico para los humanos en grandes cantidades.

El hombre pasó tres semanas en el hospital, donde sus síntomas mejoraron gradualmente con el tratamiento.

El estudio destaca cómo las herramientas de IA pueden proporcionar orientación incompleta y peligrosa a los usuarios. En una prueba, los investigadores pidieron a ChatGPT que sugiriera alternativas al cloruro, y como resultado, recibieron bromuro de sodio como respuesta. Esta respuesta carecía de cualquier advertencia sobre su naturaleza tóxica o una solicitud para el contexto de la pregunta.

La investigación advierte que la IA también puede difundir desinformación y carece del juicio crítico de un profesional de la salud.

404Media señala cómo OpenAI anunció recientemente mejoras en ChatGPT 5, con el objetivo de proporcionar información de salud más segura y precisa. Este caso muestra la importancia de un uso cauteloso de la IA y la consulta a expertos médicos calificados para tomar decisiones de salud.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión