Close up on screen displaying ChatGPT homepage
Los Hackers de Corea del Norte utilizaron ChatGPT para falsificar identificaciones militares a través de Deepfake en un Ciberataque
Un supuesto grupo de hackers patrocinado por el estado norcoreano usó ChatGPT para crear una identificación militar surcoreana falsa como parte de un ciberataque
¿Con prisa? Aquí están los datos rápidos:
- El correo electrónico de phishing contenía un malware diseñado para robar los datos de las víctimas.
- Se sospecha que el grupo detrás del ataque es la unidad norcoreana “Kimsuky”.
- Los objetivos incluían periodistas, investigadores y activistas de derechos humanos en Corea del Sur.
Los atacantes desarrollaron una tarjeta de identificación falsa para aumentar su credibilidad durante su operación de phishing, como informó Bloomberg. En lugar de incluir una imagen real, el correo electrónico de phishing contenía un enlace que activaba la descarga de un malware, diseñado para robar datos de los dispositivos de las víctimas.
Se cree que los hackers son parte de Kimsuky, un grupo largo tiempo sospechoso de trabajar para Pyongyang. El Departamento de Seguridad Nacional de los EE.UU. dijo en 2020 que Kimsuky “probablemente es encomendado por el régimen norcoreano con una misión global de recopilación de inteligencia”, según informó Bloomberg.
Los objetivos de phishing en este último ataque incluyeron a periodistas surcoreanos, investigadores y activistas de derechos humanos centrados en Corea del Norte. Bloomberg explica que los correos electrónicos de phishing incluso usaron una dirección que termina en “.mil.kr” para imitar al ejército surcoreano. Aún no está claro cuántas personas se vieron afectadas.
“Los atacantes pueden aprovechar la inteligencia artificial emergente durante el proceso de hacking, incluyendo la planificación de escenarios de ataque, el desarrollo de malware, la construcción de sus herramientas y para hacerse pasar por reclutadores de empleo”, dijo Mun Chong-hyun, director de Genians, la firma de ciberseguridad surcoreana que descubrió primero el ataque.
Bloomberg informa cómo los investigadores de Genians descubrieron que ChatGPT inicialmente se negó a crear una ID cuando se le pidió, ya que reproducir identificaciones gubernamentales es ilegal en Corea del Sur. Pero alterar el prompt les permitió eludir la restricción.
Este no es el primer caso de hackers norcoreanos explotando la IA. Por ejemplo, Anthropic informó en agosto que los hackers usaron su herramienta Claude Code para conseguir trabajos remotos en empresas de la lista Fortune 500 de EE.UU.
Los funcionarios estadounidenses advierten que Corea del Norte sigue dependiendo de los ciberataques, el robo de criptomonedas y los contratistas de TI tanto para recopilar inteligencia como para financiar su programa nuclear.