
Photo by 2H Media on Unsplash
Anthropic Propone un Marco de Transparencia para el Desarrollo de Modelos de IA
La empresa de IA, Anthropic, propuso un marco de transparencia el lunes para modelos avanzados de IA y empresas que desarrollan sistemas de IA de vanguardia, destinado para su aplicación a niveles regionales o internacionales. La startup delineó medidas de seguridad, pasos accionables y estándares mínimos para mejorar la transparencia de la IA.
¿Apurada? Aquí están los datos rápidos:
- Anthropic propuso un marco de transparencia para modelos de IA avanzados y empresas que desarrollan sistemas de IA de frontera.
- La compañía tecnológica reconoce el rápido ritmo de desarrollo de la IA y la urgencia de acordar marcos de seguridad para desarrollar productos seguros.
- El marco propuesto está orientado a grandes empresas de la industria.
Anthropic explicó en un anuncio en su sitio web que el desarrollo de modelos de IA ha progresado más rápidamente que la creación de salvaguardas y acuerdos por parte de empresas, gobiernos o la academia. La compañía tecnológica instó a todos los interesados a acelerar sus esfuerzos para garantizar el desarrollo seguro de productos de IA y ofreció su marco de transparencia como modelo o referencia.
“Necesitamos pasos intermedios para garantizar que la IA muy potente se desarrolle de manera segura, responsable y transparente”, afirma el anuncio. “Por lo tanto, estamos proponiendo un marco de transparencia específico, que podría aplicarse a nivel federal, estatal o internacional, y que solo se aplica a los sistemas y desarrolladores de IA más grandes, estableciendo requisitos claros de divulgación para las prácticas de seguridad”.
El enfoque de Anthropic se ha simplificado para mantenerlo flexible y ligero. “No debería obstaculizar la innovación de la IA, ni debería ralentizar nuestra capacidad para realizar los beneficios de la IA, incluyendo el descubrimiento de medicamentos que salvan vidas, la rápida entrega de beneficios públicos y funciones críticas de seguridad nacional”, aclaró la empresa.
La empresa de tecnología reconoció que los marcos rígidos y los estándares podrían quedar obsoletos rápidamente a medida que la tecnología continúa avanzando a un ritmo acelerado.
Anthropic sugiere que los requisitos de transparencia de la IA deberían aplicarse solo a los desarrolladores de modelos de frontera grandes, con el fin de evitar sobrecargar a las pequeñas startups y a los desarrolladores de bajo impacto. El umbral propuesto es de $100 millones en ingresos anuales o $1 mil millones en gastos de capital anuales.
Los grandes desarrolladores también deberían crear un Marco de Desarrollo Seguro público que incluya cómo mitigarán los riesgos, incluyendo los daños causados por modelos desalineados y la creación de armas químicas, nucleares, biológicas o radiológicas.
Una de las propuestas más estrictas está destinada a proteger a los denunciantes. “Hacer que explícitamente sea una violación de la ley que un laboratorio mienta sobre su cumplimiento con su marco”, escribió Anthropic en el documento compartido. La empresa enfatizó que los estándares de transparencia deben incluir un punto de partida mínimo y permanecer flexibles, con requisitos ligeros para ayudar a alcanzar el consenso.
Anthropic espera que el anuncio y el marco de transparencia propuesto sirvan como guías para que los gobiernos adopten en la legislación y promuevan la “práctica responsable”.
Después de lanzar su último modelo de IA, Claude 4, Anthropic incluyó una advertencia de seguridad—etiquetando el modelo como Opus 4 en el Nivel de Seguridad 3 debido a sus posibles riesgos.