Cursor presenta Composer, su nuevo modelo-agente para ingeniería de software y velocidad. En sus propios benchmarks, logra resultados de frontera en programación y genera cuatro veces más rápido que modelos similares. Fuente: https://cursor.com/blog/composer
Composer es un modelo MoE con soporte de contexto largo, especializado para desarrollo mediante aprendizaje por refuerzo. Durante el entrenamiento resuelve desafíos reales en grandes bases de código con acceso a herramientas de producción. En cada iteración recibe un problema y produce la mejor respuesta posible, ya sea una edición de código, un plan o una respuesta informativa. Puede leer y editar archivos, ejecutar comandos de terminal y hacer búsqueda semántica a nivel de codebase.
La motivación proviene de la experiencia con Cursor Tab, su modelo de autocompletado, y de un prototipo de agente llamado Cheetah. Composer es su versión más capaz y lo bastante rápido para uso interactivo.
Para evaluar, Cursor creó Cursor Bench, un banco con peticiones reales de sus ingenieros y soluciones óptimas. Mide corrección, respeto a las abstracciones existentes y prácticas de ingeniería. La compañía detalla que la comparación se hizo en un benchmark interno dentro de su harness de herramientas. Agrupan modelos por clases y reportan el mejor de cada clase: Fast Frontier incluye modelos de inferencia eficiente como Haiku 4.5 y Gemini Flash 2.5; Best Open recoge lanzamientos de pesos abiertos como Qwen Coder y GLM 4.6; Frontier 7/2025 se refiere al mejor modelo disponible en julio de 2025; y Best Frontier incluye GPT-5 y Sonnet 4.5, que superan a Composer. Para el cálculo de tokens por segundo estandarizan los tokens con el tokenizador más reciente de Anthropic.
El aprendizaje por refuerzo permite especializar Composer para ingeniería efectiva. Cursor incentiva decisiones eficientes en el uso de herramientas y maximizar el paralelismo, ya que la velocidad es prioritaria en un flujo interactivo. También entrena al modelo para evitar respuestas innecesarias y afirmaciones sin evidencia. En RL, el modelo aprende conductas como búsquedas complejas, corrección de errores de linter y escritura y ejecución de tests unitarios.
Entrenar grandes MoE con eficiencia ha requerido inversión en infraestructura. Cursor construyó una pila propia con PyTorch y Ray para RL asíncrono a escala. Entrenan de forma nativa en baja precisión combinando kernels MXFP8 para MoE con expert parallelism y hybrid sharded data parallelism, lo que les permite escalar a miles de GPU de NVIDIA con poco coste de comunicación y obtener inferencia más rápida sin cuantización posterior. Más detalles sobre los kernels: https://cursor.com/blog/kernels
Para el entorno de RL, quieren que Composer pueda llamar cualquier herramienta del harness del Cursor Agent. Eso incluye edición de código, búsqueda semántica, grep y comandos de terminal. Enseñar este uso a escala exige cientos de miles de entornos aislados concurrentes en la nube. Para soportarlo, adaptaron la infraestructura de Background Agents y reescribieron su planificador de máquinas virtuales para la naturaleza irregular y la escala de los entrenamientos, unificando sin fricciones los entornos de RL con los de producción.
Cursor afirma que construye y usa intensamente sus propias herramientas. En semanas recientes, muchos empleados utilizaron Composer en su trabajo diario. Con este lanzamiento, esperan que los usuarios lo encuentren útil.
Más información y todos los detalles: https://cursor.com/blog/composer






