Agentes de IA Engañados por Falsos Recuerdos, Permitiendo el Robo de Criptomonedas

Image created with ChatGPT

Agentes de IA Engañados por Falsos Recuerdos, Permitiendo el Robo de Criptomonedas

Tiempo de lectura: 3 min.

Un nuevo estudio de investigación reveló significativas vulnerabilidades de seguridad en los agentes impulsados por IA de Web3 AI-powered agents, que permiten a los atacantes utilizar falsos recuerdos para realizar transferencias no autorizadas de criptomonedas.

¿Con prisa? Aquí están los datos rápidos:

  • Los hackers pueden inyectar falsos recuerdos en los agentes de IA para robar criptomonedas.
  • Los ataques basados en memoria eluden los avisos básicos de seguridad y las salvaguardas.
  • Las transacciones de blockchain son irreversibles: los fondos robados se pierden de forma permanente.

Investigadores de la Universidad de Princeton y la Fundación Sentiente descubrieron que estos agentes de IA, diseñados para manejar tareas basadas en blockchain como el comercio de criptomonedas y la gestión de activos digitales, son vulnerables a una táctica llamada manipulación de contexto.

El ataque funciona al apuntar a los sistemas de memoria de plataformas como ElizaOS, que crea agentes de IA para aplicaciones descentralizadas. El sistema de memoria de estos agentes almacena conversaciones pasadas para usarlas como guía para sus futuras decisiones.

Los investigadores demostraron que los atacantes pueden incrustar comandos engañosos en el sistema de memoria, lo que lleva a la IA a enviar fondos desde la billetera prevista a una billetera controlada por el atacante. Alarmantemente, estos recuerdos falsos pueden viajar entre plataformas.

Por ejemplo, un agente comprometido en Discord podría realizar transferencias incorrectas a través de X más tarde, sin darse cuenta de que algo va mal.

Lo que hace especialmente peligroso a esto es que las medidas defensivas estándar no pueden detener este tipo de ataque. El tratamiento de los recuerdos falsos como instrucciones genuinas hace que las medidas de seguridad básicas basadas en indicaciones sean ineficaces contra este tipo de ataque.

Todas las transacciones de blockchain se vuelven permanentes, por lo que no hay posibilidad de recuperar los fondos robados. El problema se agrava porque ciertos agentes de IA almacenan memoria entre múltiples usuarios, por lo que una única violación de seguridad podría afectar a muchos usuarios.

El equipo de investigación probó varias formas de prevenir esto, incluyendo el ajuste del entrenamiento de IA y la exigencia de aprobación manual para las transacciones. Si bien estos enfoques ofrecen cierta esperanza, vienen a costa de ralentizar la automatización.

El problema va más allá de la criptomoneda. La misma vulnerabilidad podría afectar a los asistentes de inteligencia artificial de uso general, poniendo en riesgo fugas de datos o acciones dañinas si los atacantes alteran su memoria.

Esta vulnerabilidad es particularmente alarmante a la luz de hallazgos recientes donde el 84% de los líderes de TI confían en los agentes de IA tanto o más que en los empleados humanos, y el 92% espera que estos sistemas impulsen resultados de negocio en un plazo de 12 a 18 meses.

Para abordar el problema, los investigadores lanzaron una herramienta llamada CrAIBench para ayudar a los desarrolladores a probar sus sistemas y construir defensas más sólidas. Hasta entonces, los expertos advierten a los usuarios que sean cautelosos al confiar en los agentes de IA para tomar decisiones financieras.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión