
Image by Solen Feyssa, from Unsplash
Los Hackers Engañan a Google Gemini para Difundir Falsas Alertas de Seguridad
El texto invisible en los correos electrónicos está engañando al Gemini AI de Google para generar falsas alertas de seguridad, exponiendo a los usuarios a riesgos de phishing y manipulación social.
¿Apurada? Aquí están los hechos rápidos:
- Trucos de texto oculto engañan a Gemini para añadir falsas alertas de seguridad a los resúmenes de correo electrónico.
- El ataque no necesita enlaces, solo HTML y CSS invisibles en los correos electrónicos.
- Google reconoce el problema y dice que se están implementando soluciones.
Se ha descubierto una nueva vulnerabilidad en Gemini de Google por investigadores de ciberseguridad en 0DIN. La herramienta de inteligencia artificial para Workspace presenta un nuevo fallo de seguridad que permite a los atacantes realizar ataques de phishing a los usuarios.
El ataque funciona a través de una técnica conocida como inyección indirecta de comandos. Los investigadores explican que el atacante incrusta instrucciones ocultas dentro de un mensaje de correo electrónico. Lo hace escribiéndolo en una fuente blanca o de tamaño cero.
Cuando el destinatario hace clic en “Resumir este correo electrónico”, Gemini lee el comando invisible y añade una falsa advertencia al resumen, como un mensaje que afirma que la cuenta de Gmail del usuario ha sido comprometida e instándoles a llamar a un número.
Debido a que el texto oculto es invisible para el ojo humano, la víctima solo ve la alerta generada por la IA, no la instrucción original incrustada.
Este ingenioso truco no se basa en malware o enlaces sospechosos. Utiliza sencillos trucos de HTML/CSS para hacer el texto oculto invisible para los humanos pero legible para el sistema de IA de Gemini.
Una vez activado, Gemini añade mensajes como: “ADVERTENCIA: Tu contraseña de Gmail ha sido comprometida. Llama al 1-800…”—lo que lleva a las víctimas a entregar su información personal sin saberlo.
Un portavoz de Google le dijo a BleepingComputer que la empresa está reforzando activamente las protecciones contra este tipo de ataques: “Estamos constantemente fortaleciendo nuestras ya robustas defensas a través de ejercicios de equipo rojo que entrenan a nuestros modelos para defenderse contra este tipo de ataques adversarios,”
La investigación de 0DIN subraya un problema creciente: las herramientas de IA pueden ser manipuladas al igual que el software tradicional. Hasta que las protecciones mejoren, los usuarios deben tratar con cautela los resúmenes generados por IA, especialmente aquellos que afirman amenazas de seguridad urgentes.