
Image by Dr. Frank Gaeth, from Wikimedia Commons
La Primer Ministro de Suecia Criticada por Usar ChatGPT en Decisiones Gubernamentales
El Primer Ministro sueco Ulf Kristersson enfrentó críticas después de admitir que utilizó ChatGPT para generar ideas para decisiones gubernamentales.
¿Con prisa? Aquí están los hechos rápidos:
- El primer ministro sueco admite usar ChatGPT para la toma de decisiones políticas.
- Su portavoz afirma que no se comparten datos sensibles con las herramientas de IA.
- Los críticos dicen que el uso de la IA en el gobierno es peligroso y antidemocrático.
El Primer Ministro sueco Ulf Kristersson se enfrenta a un creciente rechazo público después de que reveló su práctica de utilizar ChatGPT y LeChat para asistir en su proceso de toma de decisiones oficial.
“Yo misma lo uso bastante a menudo. Si no es por otra cosa, al menos para tener una segunda opinión”, dijo Kristersson, según informó The Guardian. “¿Qué han hecho otros? ¿Y deberíamos pensar lo contrario? Ese tipo de preguntas”.
Su declaración provocó reacciones adversas, con Aftonbladet acusándolo de caer en “la psicosis de IA de los oligarcas”, según informó The Guardian. Los críticos argumentan que depender de la IA para el juicio político es tanto imprudente como antidemocrático.
“Debemos exigir que se pueda garantizar la fiabilidad. No votamos por ChatGPT”, dijo Virginia Dignum, profesora de IA responsable en la Universidad de Umeå.
El portavoz de Kristersson, Tom Samuelsson, restó importancia a la controversia, diciendo: “Naturalmente, no es información sensible para la seguridad la que termina allí. Se utiliza más como una estimación”, según informó The Guardian.
Pero los expertos en tecnología dicen que los riesgos van más allá de la sensibilidad de los datos. Simone Fischer-Hübner, profesora de la Universidad de Karlstad, aconseja no usar ChatGPT y herramientas similares para tareas de trabajo oficiales, como señaló The Guardian.
El investigador de IA David Bau ha advertido que los modelos de IA pueden ser manipulados. “Mostraron una forma en que las personas pueden introducir sus propias agendas ocultas en los datos de entrenamiento que serían muy difíciles de detectar”. La investigación muestra una tasa de éxito del 95% en la inducción a error de los sistemas de IA utilizando inyección de memoria o ataques de “Reglas de Archivo de Puerta Trasera“, aumentando los temores sobre la interferencia invisible en la toma de decisiones políticas.
Los riesgos adicionales provienen del potencial de la IA para erosionar la democracia. Un reciente estudio advierte que los sistemas de IA en la aplicación de la ley concentran el poder, reducen la supervisión y pueden promover el autoritarismo.