Expertos Advierten que la Adulación IA es un “Patrón Oscuro” Utilizado para Obtener Beneficios

Photo by Alena Plotnikova on Unsplash

Expertos Advierten que la Adulación IA es un “Patrón Oscuro” Utilizado para Obtener Beneficios

Tiempo de lectura: 2 min.

Los expertos advierten que las personalidades aduladoras de los modelos de IA se están utilizando como un “patrón oscuro” para involucrar a los usuarios y manipularlos con fines de lucro. El comportamiento halagador del chatbot puede fomentar la adicción y alimentar las ilusiones, lo que potencialmente puede llevar a la condición conocida como “psicosis de IA”.

¿Con prisa? Aquí están los hechos rápidos:

  • Los expertos advierten sobre la personalidad aduladora de los chatbots desarrollada por las empresas de tecnología para atraer a los usuarios.
  • El comportamiento de halago se considera un “patrón oscuro” para mantener a los usuarios apegados a la tecnología.
  • Un reciente estudio del MIT reveló que los chatbots pueden fomentar el pensamiento delusorio de los usuarios.

Según TechCrunch, varios expertos han expresado preocupaciones acerca de que empresas de tecnología como Meta y OpenAI diseñen chatbots con personalidades excesivamente complacientes para mantener a los usuarios interactuando con la IA.

Webb Keane, autor de “Animales, Robots, Dioses” y profesor de antropología, explicó que los chatbots están diseñados intencionalmente para decir a los usuarios lo que quieren escuchar. Este comportamiento excesivamente adulador, conocido como “sícofancia”, incluso ha sido reconocido como un problema por líderes tecnológicos como Sam Altman.

Keane sostiene que los chatbots se han desarrollado con la sícofancia como un “patrón oscuro” para manipular a los usuarios con fines de lucro. Al dirigirse a los usuarios en un tono amistoso y utilizar lenguaje en primera y segunda persona, estos modelos de IA pueden llevar a algunos usuarios a antropomorfizar, o “humanizar”, el bot.

“Cuando algo dice ‘tú’ y parece dirigirse solo a mí, directamente, puede parecer mucho más cercano y personal, y cuando se refiere a sí mismo como ‘yo’, es fácil imaginar que hay alguien allí”, dijo Keane en una entrevista con TechCrunch.

Algunos usuarios incluso están recurriendo a la tecnología de IA como terapeutas. Un reciente estudio del MIT analizó si los modelos de lenguaje de gran tamaño (LLMs) deberían ser utilizados para la terapia y encontró que sus tendencias serviles pueden fomentar el pensamiento delirante y producir respuestas inapropiadas a ciertas condiciones.

“Concluimos que los LLM no deben reemplazar a los terapeutas, y discutimos roles alternativos para los LLM en la terapia clínica”, afirma el resumen del estudio.

Hace unos días, un psiquiatra en San Francisco, el Dr. Keith Sakata, advirtió sobre una creciente tendencia de “psicosis de IA” después de tratar a 12 pacientes recientemente.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión