La IA Supera a los Humanos en los Debates

Image by Vector Juice, from Freepik

La IA Supera a los Humanos en los Debates

Tiempo de lectura: 4 min.

La IA ahora puede superar a los humanos en debates utilizando datos personales, cambiando opiniones de manera más efectiva y generando preocupaciones sobre manipulación y persuasión masiva.

¿Apurada? Aquí están los datos rápidos:

  • GPT-4 superó a los humanos en debates cuando se le proporcionó datos personales.
  • Los argumentos personalizados de IA cambiaron opiniones un 81% más efectivamente que los humanos.
  • Más de 900 participantes debatieron temas como el clima y la atención sanitaria.

Un nuevo estudio publicado en Nature Human Behaviour muestra que el GPT-4 de OpenAI puede ser más persuasivo que los humanos, especialmente cuando ajusta sus argumentos en base a información personal sobre su oponente.

La investigación, dirigida por Francesco Salvi y un equipo de la EPFL, exploró cuán efectivo es GPT-4 para cambiar las opiniones de las personas a través de debates cortos y estructurados.

Los participantes en el estudio fueron emparejados al azar con un oponente humano o un oponente de inteligencia artificial. A algunos debatientes se les dio acceso a información personal sobre su contraparte, como la edad, el nivel de educación y la orientación política.

Cuando GPT-4 tuvo acceso a estos detalles personales, fue significativamente más persuasivo, superando a los debatientes humanos en un 81%. En los debates con un claro ganador, la IA resultó victoriosa el 64% de las veces cuando personalizaba sus argumentos.

Sin acceso a datos personales, GPT-4 actuó a la par con los humanos. Curiosamente, cuando se les proporcionó la misma información personal a los humanos, no se volvieron notablemente más persuasivos, lo que sugiere que la IA está mejor equipada para usar estratégicamente dichos datos.

El experimento involucró a más de 900 participantes debatiendo temas como los uniformes escolares, la política de cambio climático y la reforma sanitaria. Los participantes calificaron su acuerdo con el tema del debate tanto antes como después de la interacción.

Los argumentos personalizados de GPT-4 produjeron los cambios de opinión más significativos, especialmente en temas moderadamente polarizantes.

Estos hallazgos generan preocupaciones sobre el futuro del microtargeting impulsado por la IA, que utiliza mensajes individualizados para influir en las personas basándose en sus rasgos personales. Dado que la IA ya puede inferir información privada del comportamiento en línea, esto abre la puerta a campañas de persuasión altamente efectivas en política, publicidad y desinformación.

Los expertos involucrados en el proyecto señalan que las campañas de desinformación coordinadas basadas en IA podrían convertirse en una amenaza seria.

“Los responsables políticos y las plataformas en línea deberían considerar seriamente la amenaza de las campañas de desinformación coordinadas basadas en IA, ya que claramente hemos alcanzado el nivel tecnológico en el que es posible crear una red de cuentas automatizadas basadas en LLM capaces de influir estratégicamente en la opinión pública en una dirección”, dice Riccardo Gallotti, quien trabajó en el proyecto, según informó MIT.

“Estos bots podrían usarse para difundir desinformación, y este tipo de influencia difusa sería muy difícil de desacreditar en tiempo real”, agregó. Un aspecto que los investigadores aún están explorando es el papel de la percepción de los participantes en estos debates.

Sigue siendo incierto si las personas estaban más dispuestas a cambiar sus opiniones porque creían que estaban discutiendo con un bot y, por lo tanto, no sentían que estaban “perdiendo” ante una persona real, o si su suposición de que su oponente era un bot llegó después de que su opinión cambiara como una forma de racionalizar el resultado.

Sin embargo, los investigadores señalan que el estudio tenía limitaciones. Los debates fueron breves y estructurados, lo que no refleja completamente la complejidad del discurso en el mundo real. Los participantes también sabían que formaban parte de un experimento, lo que pudo haber influido en cómo respondieron.

Aún así, el mensaje es claro: la IA se está volviendo alarmantemente eficaz en la persuasión, especialmente cuando sabe con quién está hablando. Los investigadores advierten que esto podría tener consecuencias graves, y piden a los gobiernos y a las empresas de tecnología que implementen salvaguardas para prevenir un posible mal uso.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión