Google Levanta la Prohibición Sobre el Uso de la IA para Armas y Tecnologías de Vigilancia

Image by Matthew Henry, from Unsplash

Google Levanta la Prohibición Sobre el Uso de la IA para Armas y Tecnologías de Vigilancia

Tiempo de lectura: 4 min.

Alphabet, la empresa matriz de Google, ha revocado su promesa de no usar la IA para desarrollar armas o herramientas de vigilancia.

¿Apurado? ¡Aquí están los Datos Rápidos!

  • Google actualizó sus directrices de ética en IA, eliminando las restricciones relacionadas con el daño, justo antes del informe de ganancias.
  • El jefe de IA, Demis Hassabis, enfatizó la seguridad nacional y la competencia global de IA como factores clave.
  • Los expertos advierten que las directrices actualizadas de Google podrían conducir al desarrollo de más armas autónomas.

El martes, justo antes de informar ganancias inferiores a las esperadas, la empresa actualizó sus directrices de ética de IA, eliminando referencias a evitar tecnologías que podrían causar daño, según informó The Guardian.

La jefa de IA de Google, Demis Hassabis, explicó que las directrices se estaban revisando para adaptarse a un mundo en cambio, con la IA ahora vista como crucial para proteger la “seguridad nacional”.

En una entrada de blog, Hassabis y el vicepresidente senior James Manyika enfatizaron que a medida que se intensifica la competencia global de IA, la compañía cree que “las democracias deberían liderar en el desarrollo de IA”, guiadas por los principios de “libertad, igualdad y respeto por los derechos humanos”.

WIRED destacó que Google compartió actualizaciones de sus principios de IA en una nota añadida al principio de una entrada de blog de 2018 donde se introducían las directrices. “Hemos realizado actualizaciones a nuestros principios de IA. Visite AI.Google para las últimas noticias”, dice la nota.

Aljazeera informó que Google presentó por primera vez sus principios de IA en 2018 tras las protestas de los empleados sobre la participación de la compañía en el Proyecto Maven del Departamento de Defensa de los EE.UU., que exploraba el uso de la IA para ayudar al ejército a identificar objetivos para ataques con drones.

En respuesta a la reacción negativa, que provocó renuncias de empleados y miles de peticiones, Google decidió no renovar su contrato con el Pentágono. Más tarde ese año, Google también optó por no competir por un contrato de computación en la nube de $10 mil millones con el Pentágono, citando preocupaciones de que el proyecto podría no alinearse con sus principios de IA, según lo señalado por Aljazeera.

La actualización de la política ética de Google también sigue a la asistencia del CEO de Alphabet Inc., Sundar Pichai, junto a líderes tecnológicos como Jeff Bezos de Amazon y Mark Zuckerberg de Meta, a la inauguración del Presidente de los Estados Unidos, Donald Trump, el 20 de enero.

Sin embargo, en el anuncio del martes, Google revisó sus compromisos con la IA. La página web actualizada ya no enumera usos específicamente prohibidos para sus proyectos de IA, dando así a la compañía más flexibilidad para explorar aplicaciones sensibles.

El documento revisado ahora enfatiza que Google mantendrá “una supervisión humana adecuada, la debida diligencia y mecanismos de retroalimentación para alinearse con los objetivos del usuario, la responsabilidad social y los principios ampliamente aceptados del derecho internacional y los derechos humanos”. Además, la compañía manifiesta su intención de “mitigar resultados no deseados o dañinos”.

Sin embargo, los expertos advierten que la IA pronto podría ser ampliamente implementada en el campo de batalla, aunque las preocupaciones están aumentando sobre su uso, especialmente en relación con los sistemas de armas autónomos.

“Que un líder global de la industria abandone las líneas rojas que él mismo estableció señala un cambio preocupante, en un momento en que necesitamos un liderazgo responsable en IA más que nunca”, dijo Anna Bacciarelli, investigadora senior de IA en Human Rights Watch, según lo informado por la BBC.

Bacciarelli también señaló que la decisión “unilateral” resalta “por qué los principios voluntarios no son un sustituto adecuado para la regulación y la ley vinculante.”

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
5.00 Votado por 3 usuarios
Título
Comentar
Gracias por tu opinión