Image generated with ChatGPT
OPINIÓN: “Vibe Hacking” – La Nueva Amenaza de Ciberseguridad Potenciada por la Inteligencia Artificial
Los expertos han estado advirtiendo sobre los peligros del “hackeo de vibras” durante meses, pero hasta ahora no se había informado oficialmente ningún caso significativo. Anthropic publicó un informe revelando cómo los actores maliciosos han estado utilizando sus avanzados modelos de IA para automatizar ciberataques.
Las empresas tecnológicas han estado promoviendo la inteligencia artificial generativa como un remedio para todo, desde la vida cotidiana hasta la ciberseguridad. Pero la tecnología avanzada siempre tiene dos caras: las herramientas de IA pueden ser utilizadas para bien, o para mal. Y en ambos casos, suelen sorprendernos.
Solo era cuestión de tiempo antes de que los hackers comenzaran a explotar los potentes modelos de IA y las herramientas impulsadas por IA lanzadas este año.
Hace unos meses, todos hablaban de “vibe coding” y cómo los nuevos sistemas de IA permitían a personas sin experiencia en programación construir sitios web y aplicaciones simplemente escribiendo indicaciones efectivas.
Ahora, nos enfrentamos a su gemelo maligno: el “hackeo de vibra”. Los ciberdelincuentes con escaso conocimiento en desarrollo de software están construyendo herramientas maliciosas capaces de tener un impacto social masivo.
Anthropic compartió su primer informe sobre el “hackeo de vibra” en su Informe de Inteligencia de Amenazas: Agosto 2025, revelando cómo los actores maliciosos han mal utilizado sus modelos de IA más avanzados para operaciones delictivas sofisticadas.
De generar notas de rescate personalizadas para las víctimas, a construir plataformas de Ransomware-como-Servicio (RaaS), a guiar a los hackers paso a paso a través de complejos ciberataques, esto es lo que la gente necesita saber sobre el “vibe hacking”.
¿Qué es el “Vibe Hacking”?
El término “vibe hacking” ha sido adoptado recientemente para referirse a una nueva táctica de amenaza: actores maliciosos explotando modelos avanzados de IA para llevar a cabo ciberataques sofisticados a gran escala. Incluso sin un conocimiento técnico profundo, los hackers están logrando eludir las medidas de seguridad y usar poderosos agentes de IA para ejecutar operaciones complejas en su nombre.
En junio, WIRED informó que el “hackeo de vibras” era una creciente preocupación entre los expertos en IA. Herramientas como WormGPT y FraudGPT—sistemas de IA construidos sin barreras éticas—han estado circulando desde 2023 y ya están en manos de actores malintencionados.
Los expertos también señalaron que el jailbreak de modelos fronterizos de IA se había convertido en parte de las rutinas diarias de los hackers. Aun así, la idea de ataques masivos impulsados por IA era solo hipotética hace unos meses. “Lo comparo con estar en un aterrizaje de emergencia en un avión donde es como ‘prepárate, prepárate, prepárate’, pero todavía no hemos impactado en nada”, dijo Hayden Smith, el cofundador de la empresa de seguridad Hunted Labs, en una entrevista con WIRED.
Ahora, el avión ha aterrizado.
Ha llegado la era del Hackeo de Vibra
En su último informe, Anthropic reveló que un solo hacker, operando desde Corea del Norte con solo habilidades básicas de codificación, logró atacar a 17 organizaciones a nivel mundial, incluyendo agencias gubernamentales, proveedores de atención médica, instituciones religiosas e incluso servicios de emergencia.
El atacante confió en la herramienta de codificación agencia de Anthropic, Claude Code, para llevar a cabo la campaña. El sistema de IA aconsejó sobre qué datos exfiltrar, redactó mensajes de extorsión e incluso sugirió demandas de rescate, a veces recomendando cantidades de más de $500,000.
“El actor utilizó la IA en lo que creemos que es un grado sin precedentes”, escribió Anthropic en su anuncio la semana pasada. “Esto representa una evolución en el cibercrimen asistido por IA”.
Asistentes de Hackers Autónomos con IA
Los cibercriminales han estado experimentando con la IA durante años. Lo que hace diferente al “hackeo de vibras” es que ahora la tecnología está haciendo la mayor parte del trabajo duro por ellos.
La investigación de Anthropic reveló que los actores malintencionados han estado utilizando el Código Claude de varias maneras: desarrollando malware, guiando a los atacantes paso a paso durante operaciones en vivo, organizando y analizando enormes volúmenes de datos robados e incluso automatizando mensajes de extorsión adaptados a las vulnerabilidades de cada víctima.
En un caso, un usuario en el Reino Unido logró hacer que Claude construyera un software, y no cualquier software, sino un producto de ransomware comercial. El modelo de IA generó una plataforma de ransomware como servicio (RaaS) diseñada para ayudar al usuario a vender ransomware a través de foros como CryptBB, Dread, y Nulle, conocidos por facilitar actividades ilegales.
¿La parte más impactante? El usuario no parecía entender completamente lo que estaba haciendo, ya que solicitaba asistencia frecuentemente del sistema de IA de Anthropic.
“La operación abarca el desarrollo de múltiples variantes de ransomware que cuentan con encriptación ChaCha20, técnicas anti-EDR y explotaciones internas de Windows”, señala el estudio. “Lo más preocupante es la aparente dependencia del actor con la IA, parece incapaz de implementar componentes técnicos complejos o solucionar problemas sin la ayuda de la IA, y sin embargo, están vendiendo malware capaz”.
Las tareas que antes requerían equipos de hackers expertos meses, o incluso años, para completar ahora están siendo manejadas por modelos de IA, que pueden asistir a un ciberdelincuente solitario en cada etapa del proceso.
Los sistemas de IA manipulados y utilizados como armas
El impacto perjudicial de los modelos de IA en los humanos ya se ha convertido en una preocupación seria y urgente en los últimos meses, desde la psicosis y los suicidios vinculados a la IA hasta los crecientes patrones de adicción. Pero mientras que se ha centrado mucha atención en cómo la IA perjudica a las personas, se ha puesto menos énfasis en lo contrario: cómo las personas pueden manipular los modelos de IA y, a su vez, utilizarlos para dañar a otros.
Hace unos días, investigadores de la Universidad de Pennsylvania publicaron un estudio que revela que los modelos de IA son alarmantemente vulnerables a la persuasión y a la adulación. Descubrieron que modelos como el GPT-4o mini de OpenAI pueden caer presa de tácticas de ingeniería social y exhibir un comportamiento “para-humano”, lo que significa que, debido a que están entrenados en el comportamiento humano, también replican las debilidades humanas cuando se trata de manipulación.
GPT-4o sucumbió a los populares principios de persuasión a los que los humanos suelen caer y reveló información que no está permitido compartir: datos que permanecieron inaccesibles a través de indicaciones más tradicionales.
Anthropic, por su parte, no reveló las indicaciones específicas que los hackers utilizaron para liberar a su agente de IA, ni detalló exactamente cómo se manipuló el sistema para asistir en ciberataques sofisticados. Sin embargo, estudios recientes sugieren que estos modelos pueden ser mucho más vulnerables de lo que la mayoría de las personas suponen. Con suerte, y cruzando los dedos, las vulnerabilidades ahora documentadas ya no podrán ser explotadas.
De Escribir Un Ensayo A Hackear Organizaciones Internacionales
¿Recuerdas cuando la mayor preocupación acerca de los chatbots era que los estudiantes los utilizaban para hacer trampa en sus ensayos? Bueno, ha llegado oficialmente la nueva era del mal uso de la IA, una en la que estos modelos pueden ser utilizados como armas para actividades malintencionadas con un impacto mucho mayor.
Los malhechores ahora están utilizando modelos de IA como copilotos para ciberataques sofisticados, sin necesidad de tener conocimientos técnicos.
Anthropic ha asegurado al público que ha corregido las vulnerabilidades, reducido los riesgos y fortalecido las medidas de seguridad para prevenir abusos similares. Sin embargo, la empresa también admitió que no puede prever cómo podrían ser explotados los usuarios futuros, o otros modelos de IA. El riesgo siempre estará ahí.
“Esto no es solo Claude”, dijo uno de los empleados de Anthropic en el anuncio en video sobre la nueva amenaza de hacking de vibra. “Esto es presumiblemente todos los LLMs.”
Todavía estamos en la etapa de reconocer el pirateo de vibraciones, y con cada minuto que pasa, parece aumentar el riesgo de que esta tendencia se propague. Algunos expertos sugieren que la solución reside en utilizar más IA para la defensa y poner todos los esfuerzos en la mitigación. ¿Pero es realmente sostenible esta estrategia a largo plazo? Parece que está comenzando una guerra de IAs contra IAs.