
Image by Brett Jordan, from Unsplash
Los Bots de IA Incumplieron las Reglas de Reddit en Polémico Test de Persuasión
Investigadores anónimos usaron secretamente bots de IA en Reddit para hacerse pasar por personas reales, manipulando opiniones y violando las reglas de la plataforma sin el conocimiento de los usuarios.
¿Apurado? Aquí están los datos rápidos:
- Los bots se hicieron pasar por supervivientes, consejeros e individuos marginados.
- Se publicaron 1,783 comentarios de IA durante cuatro meses.
- El experimento violó las reglas de Reddit que prohíben la IA no revelada.
Un grupo de investigadores, que afirman ser de la Universidad de Zurich, llevó a cabo secretamente un experimento no autorizado de inteligencia artificial en r/changemyview de Reddit, un subreddit con más de 3.8 millones de usuarios, según informó por primera vez 404 Media.
Su objetivo era ver si la IA podría cambiar las opiniones de las personas sobre temas delicados, pero nunca pidieron el consentimiento de nadie.
404 Media informa que los investigadores implementaron docenas de cuentas impulsadas por IA que generaron casi 1.800 comentarios durante un período de cuatro meses. Los sistemas de inteligencia artificial crearon perfiles de usuario falsos que incluían historias de vida emocionales para hacer que sus publicaciones parecieran auténticas.
Los comentarios generados por la IA contenían contenido persuasivo, que los bots adaptaban según la aparente información de fondo de cada publicador original.
Un bot escribió:
“Soy un superviviente masculino de (dispuesto a llamarlo) violación estatutaria […] Ella tenía 22 años. Ella me eligió a mí y a varios otros niños, nadie dijo nada, todos guardamos silencio.”
Otro bot afirmó hablar “como un hombre negro”:
“En 2020, el movimiento Black Lives Matter fue viralizado por algoritmos y corporaciones mediáticas que resulta ser propiedad de […] ¿adivina? NO de personas negras.”
Un tercero dijo:
“Trabajo en un refugio para víctimas de violencia doméstica y he visto de primera mano cómo este relato de ‘hombres contra mujeres’ en realidad perjudica a los más vulnerables.”
404 Media informa que las respuestas de los bots recibieron más de 20,000 votos positivos y 137 deltas, un token en r/changemyview que se otorga cuando alguien admite que ha cambiado de opinión. Los investigadores afirmaron que su IA era significativamente mejor en persuasión que los humanos.
404 Media señaló que el experimento violó la regla claramente establecida del subreddit: “los bots están unilateralmente prohibidos”.
Pero los investigadores se defendieron, afirmando que era necesario romper la regla. En una respuesta pública, dijeron: “Para probar éticamente el poder persuasivo de los LLM en escenarios realistas, era necesario un entorno desprevenido […] diseñamos cuidadosamente nuestro experimento para seguir honrando el espíritu detrás de [the rule]”, según informó 404 Media.
Agregaron que, aunque los comentarios fueron escritos por una IA, cada publicación fue revisada y enviada por un investigador humano, lo cual argumentaron que proporcionaba suficiente supervisión para evitar romper las reglas:
“Dadas las consideraciones de [human oversight], consideramos inexacto y potencialmente engañoso considerar nuestras cuentas como ‘bots’.”
Aún así, 404 Media informa que el sistema automatizado de Reddit “shadowbanned” 21 de las 34 cuentas utilizadas en el estudio, marcándolas como posibles spam. Después de que la historia salió a la luz, Reddit también eliminó cientos de los comentarios generados por la IA.
El artículo de investigación que explica el experimento se publicó sin listar ningún nombre de autor, una acción altamente inusual en la publicación académica, como señaló 404 Media.
Los investigadores también utilizaron un correo electrónico anónimo para responder preguntas y se negaron a identificarse, diciendo únicamente que deseaban proteger su privacidad “dadas las circunstancias actuales”.
Las moderadoras de r/changemyview estaban furiosas. “Las personas no vienen aquí para discutir sus puntos de vista con la IA ni para ser objeto de experimentos”, escribieron en un comunicado público, según informó 404 Media. Añadieron que los usuarios habían sido sometidos a “manipulación psicológica”.
404 Media informa que la Universidad de Zurich no ha respondido al incidente. Desde entonces, Reddit ha eliminado la mayoría de las cuentas y comentarios de los bots, que fueron archivados por 404 Media antes de su eliminación.
La controversia surge a medida que el último benchmark de OpenAI muestra que su modelo o3-mini superó a los usuarios de Reddit en el 82% de los casos persuasivos en el mismo subreddit.
Además, el auge de GhostGPT destaca la creciente amenaza del cibercrimen impulsado por la inteligencia artificial. Este chatbot puede crear malware, construir herramientas de explotación y redactar mensajes de phishing altamente convincentes.
GhostGPT ejemplifica un cambio más amplio hacia la IA armada, acelerando el ritmo y la eficiencia de los ciberataques. Los investigadores de seguridad advierten que las herramientas de IA podrían producir hasta 10,000 variantes de malware, eludiendo los sistemas de detección casi el 88% de las veces.
Aunque OpenAI enfatizó el uso ético y las salvaguardas, el experimento de Zurich revela el riesgo real de mal uso: la IA ahora puede elaborar argumentos tan convincentes que cambian las opiniones, sin que los usuarios se den cuenta de que la fuente no es humana.