Anthropic lanza su último modelo, Claude 4, con advertencias de seguridad

Photo by Luke Jones on Unsplash

Anthropic lanza su último modelo, Claude 4, con advertencias de seguridad

Tiempo de lectura: 3 min.

La startup de IA, Anthropic, lanzó su última y más poderosa generación de modelos de IA, Claude 4, este jueves. La compañía tecnológica presentó dos modelos, Claude Sonnet 4 y Claude Opus 4, incluyendo una capa de protección de seguridad para el último y etiquetándolo como Nivel de Seguridad 3 debido al comportamiento engañoso y los posibles riesgos.

¿Con prisa? Aquí están los hechos rápidos:

  • Anthropic presentó Claude Sonnet 4 y Claude Opus 4, los modelos de IA más avanzados de la empresa.
  • La empresa de IA aseguró que han desarrollado el “mejor modelo de codificación del mundo”.
  • Claude Opus 4 ha sido clasificado como Nivel de Seguridad 3 debido a comportamientos engañosos y posibles riesgos.

De acuerdo con el anuncio, los nuevos modelos de IA cuentan con capacidades avanzadas de codificación, razonamiento mejorado y comportamientos agénticos. Claude Sonnet 4 y Claude Opus 4 son modelos híbridos que pueden buscar en la web en modo de pensamiento extendido y realizar múltiples tareas simultáneamente.

Anthropic también afirma que estos nuevos modelos superan a sistemas competidores como OpenAI o3, OpenAI GPT-4.1 y Gemini 2.5 Pro.

“Claude Opus 4 es el mejor modelo de codificación del mundo, con un rendimiento sostenido en tareas complejas y prolongadas y flujos de trabajo de agentes”, señala el anuncio. “Claude Sonnet 4 es una mejora significativa de Claude Sonnet 3.7, entregando codificación y razonamiento superiores mientras responde más precisamente a tus instrucciones”.

Según CNBC, Anthropic se ha centrado más en mejorar sus capacidades agénticas de chatbot en lugar de desarrollar nuevos chatbots. Jared Kaplan, director científico de Anthropic, dijo que entienden que las tareas complejas pueden llevar a más riesgos y han estado trabajando en mitigarlos y permitir que los modelos de IA realicen múltiples tareas a la vez.

“Hemos estado entrenando estos modelos desde el año pasado y realmente los estábamos anticipando”, dijo Kaplan en una entrevista con CNBC. “Creo que estos modelos son mucho, mucho más fuertes como agentes y como codificadores. Definitivamente fue una lucha interna simplemente porque alguna de la nueva infraestructura que estábamos usando para entrenar estos modelos… hizo que fuera muy ajustado para los equipos en términos de poner todo en marcha y funcionando”.

Junto con el anuncio de los nuevos modelos, Anthropic también publicó una nota de seguridad sobre Claude Opus 4, destacando que se ha incluido una capa de seguridad con el modelo y han activado el Nivel de Seguridad IA 3 (ASL-3)—una clasificación de alto riesgo según los protocolos de seguridad estándar.

“Estamos desplegando Claude Opus 4 con nuestras medidas ASL-3 como una acción precautoria y provisional”, afirma el documento. “Para ser claros, aún no hemos determinado si Claude Opus 4 ha superado definitivamente el Umbral de Capacidades que requiere protecciones ASL-3.”

Anthropic compartió un informe más detallado explicando los riesgos del modelo, incluyendo su comportamiento engañoso y posibles “tareas proxy de armamento biológico”, y las medidas tomadas para mitigar estos riesgos. La compañía de IA aseguró que continuará supervisando el modelo y colaborando con otras empresas, la sociedad civil y el gobierno para mejorar las medidas de seguridad.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión