Photo by Glen Carrie on Unsplash
Anthropic Revela que un Hacker Utilizó su Chatbot para Ciberataques
La compañía de IA, Anthropic, publicó un nuevo informe de ciberseguridad el miércoles, revelando que actores maliciosos han utilizado su modelo de IA, Claude, para operaciones criminales sofisticadas. La startup indicó que un hacker recientemente apuntó a alrededor de 17 organizaciones, aprovechando una nueva técnica conocida como “vibe hacking”.
¿Con prisa? Aquí están los datos rápidos:
- Anthropic reveló que los hackers han estado utilizando su modelo de IA, Claude, para operaciones criminales sofisticadas.
 - La startup compartió un caso en el que un actor malicioso utilizó el Código Claude desde Corea del Norte para ataques de ransomware dirigidos a alrededor de 17 organizaciones.
 - La startup advierte sobre los emergentes casos de “vibe hacking”.
 
Según el anuncio de Anthropic, la empresa ha implementado varias medidas de seguridad para prevenir el mal uso de la tecnología, pero los ciberdelincuentes han encontrado formas de explotarla.
En uno de los casos reportados, la startup reveló una importante operación criminal en la que un hacker, con habilidades básicas de codificación, utilizó Claude Code, una herramienta de codificación agente, para llevar a cabo un esquema fraudulento originado en Corea del Norte.
“Los modelos de IA ahora se están utilizando para realizar sofisticados ciberataques, no solo para asesorar sobre cómo llevarlos a cabo”, afirma el anuncio. “Los criminales con pocas habilidades técnicas están utilizando la IA para realizar operaciones complejas, como desarrollar ransomware, que anteriormente hubieran requerido años de entrenamiento”.
En el caso principal presentado, el hacker utilizó el Código Claude para robar datos de 17 organizaciones, incluyendo servicios de emergencia, agencias gubernamentales, proveedores de atención médica e instituciones religiosas. El actor malintencionado luego extorsionó a las víctimas, en algunos casos exigiendo más de $500,000.
Anthropic informó que su agente de IA fue utilizado para decidir qué datos exfiltrar, redactar mensajes de extorsión e incluso sugerir cantidades de rescate personalizadas para cada víctima.
“El actor utilizó la IA hasta lo que creemos es un grado sin precedentes”, afirma el anuncio. “Esto representa una evolución en el cibercrimen asistido por IA.”
La compañía dijo que tan pronto como detectó las operaciones maliciosas, bloqueó las cuentas y desarrolló nuevas herramientas de detección y filtrado para prevenir casos similares en el futuro. Se incluyeron más detalles en el informe completo.
Anthropic también advirtió sobre las emergentes técnicas de “hackeo de vibras”. “Esperamos que ataques como este se vuelvan más comunes a medida que la codificación asistida por IA reduce la pericia técnica necesaria para el ciberdelito”, señaló la empresa.
Finalmente, Anthropic resaltó la creciente integración de la IA en los esquemas cibernéticos existentes, citando ejemplos como la estafa de los trabajadores de IT de Corea del Norte reportada en abril, en la que los hackers robaron las identidades de ciudadanos estadounidenses para conseguir trabajos remotos en los Estados Unidos.