
Image by Choong Deng Xiang, from Unsplash
OpenAI lanza Codex: un Asistente de Inteligencia Artificial para Desarrolladores
OpenAI acaba de presentar Codex, un nuevo asistente de inteligencia artificial basado en la nube diseñado para ayudar a los desarrolladores con tareas de software.
¿Con prisa? Aquí están los datos rápidos:
- Codex es la nueva IA basada en la nube de OpenAI para tareas de desarrollo de software.
- Disponible para usuarios Pro, Team y Enterprise; Próximamente para Plus y educación.
- Ejecuta tareas en un entorno seguro con registros en tiempo real y resultados de pruebas.
Ya está disponible para los usuarios de ChatGPT Pro, Team y Enterprise, con soporte para usuarios Plus y de educación próximamente.
Codex funciona con codex-1, un modelo especialmente entrenado para la ingeniería de software. Puede escribir funciones, corregir errores, responder preguntas de código y proponer solicitudes de extracción, todo en paralelo. Cada tarea se ejecuta dentro de un entorno seguro cargado con el código del usuario, lo que lo hace seguro y fácil de rastrear.
Codex es fácil de usar: solo tienes que escribir un prompt en ChatGPT, hacer clic en “Code” o “Ask”, y comienza a trabajar. Edita archivos, ejecuta pruebas e incluso muestra el progreso en vivo. Las tareas pueden tardar de 1 a 30 minutos, dependiendo de su complejidad.
“Codex proporciona evidencia verificable de sus acciones a través de citas de registros de terminales y resultados de pruebas”, explicó OpenAI. Los usuarios pueden revisar estos resultados, pedir cambios o fusionarlos directamente en su código.
Codex también puede leer instrucciones especiales de los archivos AGENTS.md dentro de su base de código. Estos archivos le ayudan a entender su proceso de prueba y los estándares de codificación. Aún así, “codex-1 muestra un rendimiento fuerte incluso sin los archivos AGENTS.md”, afirmó OpenAI.
Codex también solucionó recientemente un error en la función separability_matrix de la biblioteca Astropy. Un usuario señaló: “¿De repente las entradas y salidas ya no son separables? Esto me parece un error”. Codex identificó el problema y propuso una solución que fue aceptada, demostrando así su valor práctico.
OpenAI llama a esto una “previsualización de investigación”, lo que significa que aún se está mejorando. Subrayan la importancia de la seguridad, la transparencia y la supervisión humana: “Sigue siendo esencial que los usuarios revisen y validen manualmente todo el código generado por el agente antes de su integración y ejecución.”