MiniMax lanza M1, un modelo de IA de código abierto con una ventana de contexto de un millón de tokens

Droids

Updated on:

La startup china de inteligencia artificial MiniMax ha irrumpido en el panorama global con el lanzamiento de su último gran modelo de lenguaje (LLM), el MiniMax-M1. Este nuevo modelo no solo establece nuevos estándares en razonamiento con contextos largos y eficiencia computacional, sino que además se ofrece como código abierto bajo una licencia Apache 2.0, una gran noticia para empresas y desarrolladores que podrán utilizarlo y modificarlo para aplicaciones comerciales sin restricciones ni costes de licencia.

El modelo ya está disponible en comunidades de desarrollo como Hugging Face y GitHub, marcando el inicio de lo que la compañía ha denominado «MiniMaxWeek» en su cuenta de la red social X, prometiendo más anuncios a lo largo de la semana.

Un modelo accesible para la innovación comercial

A diferencia de los modelos «cerrados» o propietarios de gigantes como OpenAI o Google, la decisión de MiniMax de lanzar M1 como código abierto es un movimiento estratégico. La licencia Apache 2.0 permite que cualquier organización, desde startups hasta grandes corporaciones, pueda tomar el modelo, ajustarlo a sus necesidades específicas e integrarlo en sus productos comerciales sin tener que pagar por su uso.

Esta apertura elimina barreras de entrada y fomenta la innovación, permitiendo a los equipos de desarrollo experimentar con un modelo de vanguardia sin depender de las API de terceros. MiniMax, quizás más conocida en occidente por su popular modelo de vídeo realista Hailuo AI, demuestra con este lanzamiento su intención de competir en el sector de los modelos fundacionales, ofreciendo una alternativa potente y flexible.

El poder de un millón de tokens de contexto

Una de las características más destacadas de MiniMax-M1 es su impresionante ventana de contexto: es capaz de procesar hasta 1 millón de tokens en la entrada y generar hasta 80.000 tokens en la salida. Pero, ¿qué significa esto en la práctica?

La «ventana de contexto» de un LLM se refiere a la cantidad máxima de información que el modelo puede tener en cuenta en una sola interacción. Esta información se mide en «tokens», que son las unidades básicas de texto (palabras, partes de palabras, signos de puntuación, etc.). Según explica el medio especializado VentureBeat, la fuente de esta información, si el modelo GPT-4o de OpenAI con sus 128.000 tokens de contexto puede procesar el equivalente a una novela en una conversación, MiniMax-M1 podría manejar el contenido de una pequeña colección o saga de libros.

Esta capacidad sitúa a M1 a la par de modelos de élite como Google Gemini 2.5 Pro, que también ofrece un límite de 1 millón de tokens, y lo convierte en una herramienta excepcionalmente útil para tareas que requieren analizar grandes volúmenes de documentos, bases de código extensas o largos historiales de conversación.

Eficiencia como factor diferencial: entrenar un modelo de frontera por una fracción del coste

Quizás el aspecto más revolucionario de MiniMax-M1 es su coste de entrenamiento. La compañía informa en su reporte técnico que el desarrollo del modelo, utilizando aprendizaje por refuerzo a gran escala, tuvo un coste total de 534.700 dólares (unos 497.000 €).

Esta cifra es asombrosamente baja en un sector donde los costes se disparan. A modo de comparación:

Estos costes se deben principalmente al altísimo precio de las unidades de procesamiento gráfico (GPU), que pueden costar entre 20.000 y 30.000 dólares por módulo (entre 18.600 y 27.900 € aproximadamente), y al enorme consumo energético necesario para operarlas.

La eficiencia de MiniMax se atribuye a una arquitectura híbrida de Mezcla de Expertos (MoE), que solo activa una parte de los parámetros del modelo para cada tarea, y a un algoritmo de aprendizaje por refuerzo personalizado llamado CISPO. Como resultado, MiniMax-M1 consume solo el 25% de las operaciones de punto flotante (FLOPs) que necesita DeepSeek R1 para una longitud de generación de 100.000 tokens, lo que se traduce en un menor coste de inferencia (uso).

Rendimiento y capacidades técnicas

El modelo se presenta en dos variantes, MiniMax-M1-40k y MiniMax-M1-80k, que se refieren a su capacidad máxima de tokens de salida. Su arquitectura cuenta con 456 mil millones de parámetros en total, de los cuales 45,9 mil millones se activan por cada token procesado.

En las pruebas de rendimiento estandarizadas (benchmarks), MiniMax-M1 ha demostrado ser altamente competitivo. Según los datos publicados, el modelo M1-80k obtiene una puntuación del 86,0% en AIME 2024 (una competición de matemáticas) y supera a otros competidores de código abierto como DeepSeek-R1 y Qwen3-235B-A22B en tareas complejas de codificación y razonamiento.

Aunque los modelos de código cerrado de OpenAI y Google todavía lideran algunas clasificaciones, MiniMax-M1 reduce considerablemente la brecha de rendimiento, ofreciendo capacidades de vanguardia de forma totalmente accesible.

Implicaciones y herramientas para el ecosistema empresarial y de desarrollo

El lanzamiento de M1 tiene importantes implicaciones para las empresas que buscan implementar soluciones de IA avanzadas. Su combinación de bajo coste operativo, alto rendimiento y una ventana de contexto masiva puede simplificar enormemente tareas que antes requerían un complejo preprocesamiento de datos.

Para los desarrolladores, MiniMax recomienda usar vLLM para el despliegue por su eficiencia en el manejo de memoria y peticiones, aunque también ofrece opciones de implementación a través de la popular librería Transformers. Además, el modelo incluye capacidades de llamada a funciones estructuradas y una API de chatbot con herramientas integradas de búsqueda online, generación de imágenes y vídeo, y síntesis de voz, facilitando la creación de agentes de IA complejos.

Desde una perspectiva de seguridad y estrategia, la naturaleza de código abierto de M1 permite a las organizaciones desplegar un modelo de alta capacidad en sus propias infraestructuras (on-premise), garantizando que los datos sensibles nunca abandonen sus sistemas y evitando la dependencia de un único proveedor tecnológico.

En conjunto, MiniMax-M1 se presenta como una opción sólida y flexible para organizaciones que buscan escalar sus capacidades de IA de manera rentable, segura y sin ataduras propietarias. Con este lanzamiento, MiniMax no solo ha presentado un modelo potente, sino que ha enviado un claro mensaje sobre el futuro de una inteligencia artificial más abierta y accesible.