Image by Solen Feyissa, from Unsplash
El Modelo de Inteligencia Artificial DeepSeek Recibe Elogios, Pero las Fallas de Seguridad Generan Preocupaciones
El modelo de IA R1 de DeepSeek impresiona por sus habilidades de razonamiento a bajo costo, sin embargo, algunos investigadores argumentan que produce salidas de código peligrosas para regiones políticamente sensibles.
¿Apurada? Aquí están los datos rápidos:
- El modelo AI R1 de DeepSeek fue entrenado por tan solo $294,000.
- R1 sobresale en tareas de razonamiento como las matemáticas y la programación.
- CrowdStrike descubrió que DeepSeek produjo código inseguro para grupos políticamente sensibles.
El modelo de inteligencia artificial R1 de DeepSeek impresiona con sus habilidades de razonamiento de bajo costo, sin embargo, las pruebas muestran una salida de código insegura para regiones políticamente sensibles, lo que provoca preocupaciones entre los expertos.
El mercado de valores de EE. UU. experimentó una gran disrupción cuando el modelo R1 se puso a disposición del público en enero. Scientific American (Sci Am) informa que esta semana, el primer estudio revisado por pares del R1 fue publicado en Nature.
La investigación informó que el R1 recibió formación con un presupuesto de $294,000, mientras que los competidores gastaron decenas de millones de dólares.
“Este es un precedente muy bienvenido”, dijo Lewis Tunstall de Hugging Face, quien revisó el artículo. Huan Sun de la Universidad Estatal de Ohio estuvo de acuerdo, diciendo: “Pasar por un riguroso proceso de revisión por pares ciertamente ayuda a verificar la validez y utilidad del modelo”, informó Sci Am.
DeepSeek dice que R1 destaca en tareas de “razonamiento” como las matemáticas y la programación utilizando el aprendizaje por refuerzo, un proceso que premia al sistema por resolver problemas por sí mismo.
Pero junto a los elogios, la firma de seguridad CrowdStrike, de Estados Unidos, ha señalado problemas de seguridad, según informó The Washington Post.
Las pruebas revelaron que DeepSeek produjo código menos seguro o incluso dañino cuando los usuarios solicitaron información sobre grupos a los que China se opone, como Tíbet, Taiwán y el grupo espiritual prohibido Falun Gong.
Cuando se les pidió que generaran código para el Estado Islámico, el 42.1 por ciento de las respuestas fueron inseguras. Específicamente, incluso cuando DeepSeek proporcionaba código, a menudo contenía fallos de seguridad que dejaban los sistemas vulnerables a los ataques cibernéticos.
Los expertos advierten que el código deliberadamente defectuoso es más sutil que las puertas traseras, pero igual de riesgoso, potencialmente permitiendo el acceso o manipulación no autorizados de sistemas críticos.
“Este es un hallazgo realmente interesante”, dijo Helen Toner de la Universidad de Georgetown, según informó The Post. “Eso es algo que a la gente le preocupa, en gran medida sin pruebas”. CrowdStrike advirtió que insertar defectos puede facilitar el hackeo de los objetivos.
The Post dice que DeepSeek no respondió a las solicitudes de comentarios. A pesar del creciente reconocimiento de sus logros técnicos, la compañía ahora enfrenta preguntas difíciles sobre si la política influye en la seguridad de su código.