El Estudio Advierte que la IA Podría Acelerar la Polarización en las Redes Sociales
La inteligencia artificial podría intensificar la polarización en las redes sociales, advierten investigadores y estudiantes de Concordia, generando preocupaciones sobre la libertad de expresión y la desinformación.
¿Con prisa? Aquí están los hechos rápidos:
- Los algoritmos de IA pueden causar división utilizando únicamente los recuentos de seguidores y las publicaciones recientes.
- Los bots de aprendizaje por refuerzo se adaptan rápidamente para explotar las vulnerabilidades de las redes sociales.
- Los expertos advierten que las plataformas corren el riesgo de caer en la censura o en la manipulación sin control.
Aunque la polarización en las redes sociales no es algo nuevo, investigadores y activistas estudiantiles de la Universidad de Concordia advierten que la inteligencia artificial podría agravar mucho más el problema.
“En lugar de mostrarnos imágenes de lo que está sucediendo o contenido de los periodistas que lo están reportando, estamos viendo en cambio arte de IA excesivamente dramatizado sobre cosas que deberíamos considerar importantes políticamente […] Realmente aleja a la gente y elimina la responsabilidad”, dijo Danna Ballantyne, coordinadora de asuntos externos y movilización de la Unión Estudiantil de Concordia, según lo informado por The Link.
Sus preocupaciones reflejan una nueva investigación de Concordia, donde el profesor Rastko R. Selmic y el estudiante de doctorado Mohamed N. Zareer mostraron cómo los bots de aprendizaje por refuerzo pueden alimentar la división en línea. “Nuestro objetivo era entender qué límite puede tener la inteligencia artificial en la polarización y las redes sociales, y simularlo […] para medir cómo puede surgir esta polarización y desacuerdo”, dijo Zareer, según lo informado por The Link.
Los hallazgos sugieren que los algoritmos no necesitan datos privados para generar división, donde señales básicas como el recuento de seguidores y las publicaciones recientes son suficientes. “Es preocupante, porque [mientras] no es un simple robot, sigue siendo un algoritmo que puedes crear en tu computadora […] Y cuando tienes suficiente potencia de cálculo, puedes afectar cada vez más redes”, explicó Zareer a The Link.
Esto refleja un cuerpo más amplio de investigación que muestra cómo el aprendizaje por refuerzo puede ser utilizado para dividir a las comunidades. El estudio realizado por Concordia utilizó el aprendizaje Double-Deep Q y demostró que los agentes de inteligencia artificial adversaria pueden “adaptarse de manera flexible a los cambios dentro de la red, lo que les permite explotar eficazmente las vulnerabilidades estructurales y amplificar las divisiones entre los usuarios”, según se señaló en la investigación.
En efecto, el Aprendizaje Profundo Doble-Q es una técnica de IA donde un bot aprende acciones óptimas a través de ensayo y error. Utiliza redes neuronales profundas para manejar problemas complejos y dos estimaciones de valor para evitar sobreestimar recompensas. En las redes sociales, puede difundir estratégicamente contenido para aumentar la polarización con datos mínimos.
Zareer advirtió que los responsables de las políticas enfrentan un equilibrio difícil. “Hay una línea muy fina entre la monitorización y la censura, y el intento de controlar la red”, dijo a The Link. Demasiada poca supervisión permite que los bots manipulen las conversaciones, mientras que demasiada puede correr el riesgo de reprimir la libertad de expresión.
Mientras tanto, estudiantes como Ballantyne temen que la IA esté borrando la experiencia vivida. “La IA lo descarta completamente”, dijo a The Link.