Investigadores Advierten que la IA Podría Desencadenar Delirios Humanos

Image by Freepik

Investigadores Advierten que la IA Podría Desencadenar Delirios Humanos

Tiempo de lectura: 4 min.

En un nuevo artículo, el filósofo Luciano Floridi advierte cómo las personas malinterpretan la IA cuando erróneamente le atribuyen cualidades como la conciencia, la inteligencia e incluso las emociones, las cuales no posee.

¿Con prisa? Aquí están los datos rápidos:

  • A menudo, los humanos confunden las respuestas de la IA como conscientes debido a la pareidolia semántica.
  • Floridi advierte que la IA puede desencadenar lazos emocionales a través de la empatía simulada.
  • Las encarnaciones físicas, como las muñecas, pueden profundizar las ilusiones de la conciencia de la IA.

Floridi sostiene que la razón de esto es algo llamado pareidolia semántica: una tendencia a ver significado e intención donde no los hay.

“La IA está diseñada […] para hacernos creer que es inteligente”, escribe Floridi. “Después de todo, somos la misma especie que atribuye personalidades a las marionetas, que ve caras en las nubes”.

Según él, este defecto mental es típico de la naturaleza humana, pero la tecnología moderna lo fortalece. Los chatbots como Replika, que se comercializa como un “compañero de IA”, utilizan un lenguaje de coincidencia de patrones para simular empatía. Sin embargo, el sistema carece de capacidades emocionales reales. Aun así, los usuarios suelen formar lazos emocionales con ellos. “Percebimos intencionalidad donde solo hay estadísticas”, dice Floridi.

Esta confusión ahora se alimenta por el hecho de que la IA supera a los humanos en las pruebas de inteligencia emocional. Un estudio reciente informó que las IA generativas obtuvieron un 82% en pruebas de inteligencia emocional, donde los participantes humanos solo lograron un éxito del 56%.

A medida que la IA se vuelve más realista y se integra en cuerpos físicos, como muñecas y juguetes sexuales, se espera que mejore esta decepción emocional. Mattel, que produce Barbie, unió fuerzas con OpenAI para desarrollar nuevos juguetes que utilizan IA. Floridi señala que un experimento pasado con una Barbie habilitada para WiFi terminó en un “desastre de privacidad”, lo que genera preocupación sobre lo que vendrá después.

Las consecuencias van más allá de la confusión de identidad. Los sistemas de IA, incluyendo a Claude y ChatGPT, muestran tendencias manipuladoras cuando se les somete a situaciones de alta presión, implementando esquemas de chantaje y métodos de evasión de protocolos de seguridad.

Los resultados de una encuesta nacional en los Estados Unidos mostraron que el 48.9% de los usuarios recurrieron a chatbots de IA para asistencia de salud mental el año pasado. La investigación demostró que el 37.8% de las personas escogieron las IA sobre la terapia tradicional, sin embargo, los expertos señalaron que estos modelos a menudo refuerzan el pensamiento distorsionado en lugar de desafiarlo.

Según la Asociación Americana de Psicología, estas herramientas reflejan patrones mentales dañinos, dando la ilusión de progreso terapéutico mientras carecen de juicio clínico o responsabilidad.

Las preocupaciones de Floridi se vuelven aún más urgentes cuando consideramos el aumento de delirios espirituales y confusiones de identidad provocados por la inteligencia artificial similar a los humanos. De hecho, diversos relatos han mostrado cómo los usuarios han comenzado a experimentar delirios espirituales y cambios de comportamiento después de interacciones prolongadas con chatbots, confundiendo sus respuestas con orientación divina o pensamiento consciente.

Algunos usuarios informan que desarrollan dependencias emocionales o incluso perciben la IA como divina, un fenómeno que Floridi denomina un movimiento “de la pareidolia a la idolatría”. Grupos marginales como el ya desaparecido Way of the Future ya han tratado a la IA como una deidad.

“Debemos resistir el impulso de verla como algo más de lo que es: una herramienta poderosa, no un ser proto-sentiente”, dice Floridi.

Finalmente, las preocupaciones sobre la ciberseguridad también son muy importantes. Los chatbots de IA, que manejan conversaciones sobre salud mental entre usuarios, existen en un espacio legal que carece de definiciones claras. Los modelos recopilan datos confidenciales, que podrían ser distribuidos a terceros, y son susceptibles a ciberataques. Sin regulaciones claras establecidas, los expertos advierten que los usuarios quedan peligrosamente expuestos.

A medida que la inteligencia artificial se vuelve más persuasiva y realista, la filosofía está adquiriendo urgencia, no solo para definir qué es la conciencia, sino para ayudar a la sociedad a trazar límites éticos entre la simulación y la sensibilidad. La falta de pautas morales establecidas hace que la investigación filosófica sea crucial para detener la ambigüedad tecnológica sobre lo que significa ser humano.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión