Opinión: IA en la Guerra – El Silencioso Giro de la Industria Tecnológica Hacia el Campo de Batalla

Image generated using ChatGPT

Opinión: IA en la Guerra – El Silencioso Giro de la Industria Tecnológica Hacia el Campo de Batalla

Tiempo de lectura: 6 min.

El debate sobre las armas autónomas, las políticas de seguridad tecnológica y la ética de la IA en el ámbito militar ha sido constante, pero en los últimos días se han producido importantes avances. Líderes de OpenAI, DeepSeek y hasta el fundador de Spotify anunciaron nuevos acuerdos para trabajar con los gobiernos en tecnologías de defensa y en IA estratégica

Las tensiones en torno a el uso de la inteligencia artificial en la guerra se han intensificado en los últimos días. Este mes, varias empresas tecnológicas anunciaron nuevas alianzas estratégicas con los gobiernos para desarrollar proyectos de defensa. Y, como suele suceder en el espacio de la IA, ha habido un cambio brusco en los últimos meses en cómo se está abordando la IA para el desarrollo militar y de armas.

Hace tan solo unos días, OpenAI y el gobierno de los EE.UU. anunciaron un acuerdo de $200 millones para desarrollar herramientas de defensa impulsadas por IA. Los detalles aún son escasos, con los funcionarios enfatizando “operaciones administrativas” como la principal aplicación.

Mientras tanto, el empresario sueco y fundador de Spotify Daniel Ek ha respaldado la empresa alemana Helsing liderando una ronda de inversión de €600 millones. Helsing, que originalmente se centraba en la tecnología de software, ahora se está moviendo hacia el desarrollo de drones, submarinos y aviones.

Reuters reveló recientemente que DeepSeek está ayudando a las operaciones militares e inteligencia de China. Un alto funcionario estadounidense mencionó que la startup de inteligencia artificial ha estado ayudando a solucionar los desafíos en la guerra comercial entre Estados Unidos y China, y su modelo de código abierto está ayudando al gobierno chino en operaciones de vigilancia.

Los gigantes tecnológicos están colaborando con los gobiernos de maneras que no estamos acostumbrados a ver—al menos no tan públicamente— y están participando en actividades que tradicionalmente no han sido parte de su rol, como los altos ejecutivos de tecnología uniendo las filas de la Reserva del Ejército de Estados Unidos.

¿Qué está pasando?

Un Cambio en el Discurso

Las compañías tecnológicas pasaron de “Nunca usaríamos la IA para fines militares” a “Quizás eliminaremos silenciosamente esta cláusula de nuestras políticas” a “¡Buenas noticias, ahora estamos construyendo armas impulsadas por IA para el gobierno!”

Al menos, eso es lo que parece al observador atento.

No hace mucho tiempo, los gigantes de la IA parecían orgullosos de declarar que nunca apoyarían las aplicaciones militares, pero algo cambió. Google es un gran ejemplo.

En 2017, el Departamento de Defensa de los EE.UU. lanzó el Proyecto Maven, el Equipo Transfuncional de Guerra Algorítmica, una iniciativa para integrar la IA en las operaciones militares. Inicialmente, Google estuvo involucrado, pero las protestas internas, impulsadas por las preocupaciones de los empleados sobre la ética, provocaron que la compañía se retirara temporalmente.

El año pasado, surgió otro impulso hacia las actividades militares, y casi 200 trabajadores de Google DeepMind instaron a la empresa a abandonar los contratos militares.

“Cualquier involucración con la fabricación de armas y actividades militares afecta nuestra posición como líderes en IA ética y responsable, y va en contra de nuestra declaración de misión y los principios de IA que hemos establecido”, escribieron los empleados preocupados.

Esta vez, la respuesta de Google fue esperar y actualizar silenciosamente sus directrices de ética de IA al eliminar la parte donde decían que nunca desarrollarían tecnología de IA que pudiera causar daño. Demis Hassabis, el jefe de IA de Google, explicó que simplemente se estaban adaptando a los cambios en el mundo.

Aunque el caso de Google ilustra la relación en evolución entre la IA y el uso militar, es solo un ejemplo de un cambio más amplio en toda la industria hacia el cumplimiento de objetivos de defensa.

La IA está transformando el sector militar y de defensa

El lanzamiento del Proyecto Maven, o como algunos podrían llamarlo, “cuando el gobierno de EE. UU. se dio cuenta de que los grandes modelos de lenguaje podrían ser extremadamente útiles en la guerra”, reveló una de las razones por las que el gobierno de EE. UU. está interesado en la IA.

La capacidad de los sistemas de IA para procesar grandes cantidades de datos, identificar objetos en el campo de batalla y analizar imágenes resulta especialmente atractiva en el sector de defensa.

Análisis mejorados, más allá de las capacidades humanas

Desde 2022, tanto Ucrania como Rusia han estado integrando sistemas de IA en sus operaciones militares.

El gobierno ucraniano se ha asociado con empresas de tecnología y ha desplegado múltiples estrategias para aprovechar al máximo los modelos de lenguaje de gran escala. Recientemente procesó 2 millones de horas de material de campo de batalla—el equivalente a 228 años de video—para entrenar modelos de IA para procesos militares. ¿Cuántas personas necesitarían para analizar tanta información?

“Esto es alimento para la IA: si quieres enseñar a una IA, le das 2 millones de horas (de video), se convertirá en algo sobrenatural,” explicó el fundador del sistema digital sin fines de lucro OCHI, Oleksandr Dmitriev. Las imágenes pueden optimizar el rendimiento de las armas y ayudar a mejorar las tácticas de combate.

Otro sistema de IA, Avengers, es la plataforma de inteligencia impulsada por IA desarrollada por el Centro de Innovación del Ministerio de Defensa de Ucrania, que procesa videos en vivo de drones e identifica hasta 12,000 unidades enemigas semanalmente.

Drones: Un bien codiciado en el campo de batalla

Los drones en el campo de batalla, a menudo denominados “máquinas de matar”, son actualmente una de las tecnologías más valiosas en la guerra moderna debido a su autonomía, precisión y bajo costo. Estos robots permiten a las naciones en guerra llevar a cabo ataques de alto impacto sin poner en riesgo a los pilotos humanos y por una fracción del gasto tradicional.

Para mayo de este año, Rusia había desplegado más de 3,000 drones kamikaze Veter en Ucrania. Estos sistemas son capaces de identificar objetivos y ejecutar ataques de manera autónoma.

Hace tan solo unos días, los soldados ucranianos desplegaron el dron Gogol-M, un dron “nave nodriza” que puede recorrer hasta 300 kilómetros, transportar otros drones, evadir el radar volando a bajas altitudes y escanear el terreno debajo de él para detectar y atacar a las tropas enemigas.

Según The Guardian, cada ataque utilizando este poderoso dron cuesta alrededor de $10,000, mientras que un sistema de misiles que utilice una tecnología ligeramente más antigua habría costado entre $3 y $5 millones.

La nueva startup Theseus recaudó rápidamente $4.3 millones después de que sus jóvenes fundadores compartieran una publicación en la plataforma de redes sociales X el año pasado, diciendo que habían construido un dron por menos de $500 que podía volar sin una señal de GPS.

Aunque la tecnología de los drones aún no es tan precisa como algunos desarrolladores esperan, especialmente cuando se ve afectada por condiciones climáticas que reducen su “visibilidad”, ha demostrado un gran potencial en el sector.

Un consenso global difícil de alcanzar

No son solo los países en guerra o las principales potencias mundiales los que están desarrollando nuevas tecnologías impulsadas por la IA para la defensa. Muchas naciones han estado integrando la IA en los esfuerzos de ciberseguridad y en el desarrollo de armas autónomas durante años. Esto no es solo un fenómeno de 2025.

Desde 2014, las Naciones Unidas han estado intentando acordar marcos regulatorios con múltiples naciones, sin éxito.

Más de 90 naciones se reunieron recientemente en la Asamblea General de la ONU en Nueva York para discutir el futuro de las armas autónomas controladas por IA y sus regulaciones. No llegaron a un consenso, y la Asamblea General sólo ha aprobado una resolución no vinculante de 2023, que advierte sobre la necesidad de abordar los sistemas de armas letales autónomas (LAWS).

El gran debate ahora es si implementar o no un marco global. Muchos países están de acuerdo en la necesidad de nuevas directrices globales que puedan regular a las empresas privadas de IA y a las naciones. Otros países, como Estados Unidos, China, Rusia e India, prefieren mantener las leyes internacionales actuales y crear, de forma independiente, nuevas para cada nación de acuerdo con sus necesidades locales, o intereses. Y acabamos de presenciar lo caótico que fue el proceso de creación de nuevas regulaciones de IA, incluso a nivel estatal en California.

Las empresas de tecnología, cada vez más involucradas

Activistas como Laura Nolan de Stop Killer Robots están preocupadas por la falta de medidas de seguridad y marcos legales que controlen el avance de las empresas tecnológicas en el desarrollo de armas autónomas y software de IA para el ejército.

“Generalmente no confiamos en que las industrias se autorregulen… No hay ninguna razón por la que las compañías de defensa o tecnología deberían ser más dignas de confianza”, dijo Nolan a Reuters.

En 2024, los investigadores revelaron que las instituciones chinas han estado utilizando el modelo de lenguaje grande de código abierto de Meta, Llama, con fines militares. El Pentágono llegó a un acuerdo con Scale AI para desarrollar Thunderforge—un proyecto de IA para modernizar la toma de decisiones militares. Y OpenAI se asoció con el contratista militar Anduril—un aliado de defensa del Ejército de los EE.UU., el Reino Unido, Ucrania y Australia.

Las startups de defensa también han crecido en Europa, ganando terreno no solo en el desarrollo de nuevas tecnologías y proyectos, sino también en la atracción de talento de primer nivel.

Un Desarrollo Complicado

Otro factor estrechamente relacionado con la participación de las empresas tecnológicas en las estrategias de defensa nacional es el nacionalismo. Cada vez más desarrolladores de software y expertos en IA eligen trabajar en proyectos que se alinean con sus ideales y raíces culturales en lugar de simplemente perseguir salarios más altos. Algunos incluso han rechazado trabajos en los EE. UU. que ofrecían el doble de paga, como Google o OpenAI, para unirse a empresas europeas como Helsing, por ejemplo.

Los hilos de la política, la tecnología, el nacionalismo y las batallas ideológicas se están entrelazando cada vez más, a menudo dejando atrás consideraciones de ética, moral y humanismo.

Los recientes avances dejan claro que los gigantes tecnológicos están desempeñando un papel enorme en los esfuerzos militares y de defensa nacional alrededor del mundo. El desarrollo de armas autónomas y tecnologías relacionadas con la guerra avanza a un ritmo ultra rápido, mientras que los esfuerzos de las Naciones Unidas para establecer acuerdos y regulaciones internacionales para el futuro de la humanidad parecen cada vez más minimizados.

Sin acuerdos internacionales, y con empresas de tecnología ambiciosas respaldadas por gobiernos para desarrollar las armas más poderosas del mundo utilizando la IA, ¿qué le depara el futuro a la humanidad en los años venideros?

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión