Nvidia, el gigante tecnológico especializado en inteligencia artificial, ha entrado oficialmente en el mercado de modelos de razonamiento de código abierto con el lanzamiento de su nueva familia de modelos Llama Nemotron. El anuncio se realizó durante el evento Nvidia GTC, donde la compañía presentó esta innovación diseñada específicamente para acelerar el desarrollo de cargas de trabajo de IA agéntica, un área que está ganando cada vez más relevancia en el sector empresarial.
Los nuevos modelos representan una extensión de la familia Nvidia Nemotron que la compañía anunció inicialmente en enero durante el Consumer Electronics Show (CES). Su lanzamiento responde al crecimiento exponencial de los modelos de razonamiento en 2025 y posiciona a Nvidia como un competidor directo de otros sistemas como DeepSeek R1.
Nvidia entra en el mercado de modelos de razonamiento de código abierto
El desarrollo de estos nuevos modelos no es casual. Según informa VentureBeat, Nvidia y su valor bursátil experimentaron un impacto significativo a principios de este año con el lanzamiento de DeepSeek R1, que ofrecía un modelo de razonamiento de código abierto con un rendimiento superior. Como respuesta, la familia Llama Nemotron se posiciona como una alternativa competitiva, ofreciendo modelos de razonamiento de IA preparados para entornos empresariales y orientados al desarrollo de agentes inteligentes.
«Los agentes son sistemas de software autónomos diseñados para razonar, planificar, actuar y criticar su propio trabajo», explicó Kari Briski, vicepresidente de Gestión de Productos de Software de IA Generativa en Nvidia, durante una sesión previa al GTC con la prensa. «Al igual que los humanos, los agentes necesitan comprender el contexto para desglosar solicitudes complejas, entender la intención del usuario y adaptarse en tiempo real», añadió según recoge VentureBeat.
La tecnología detrás de Llama Nemotron
Como su nombre indica, Llama Nemotron se basa en los modelos Llama de código abierto de Meta. Utilizando esta base, Nvidia aplicó un proceso de optimización mediante poda algorítmica para optimizar los requisitos de computación manteniendo la precisión.
El entrenamiento de estos modelos ha sido intensivo, involucrando 360.000 horas de inferencia con GPUs H100 y 45.000 horas de anotación humana para mejorar las capacidades de razonamiento. Todo este esfuerzo ha dado como resultado modelos que, según Nvidia, ofrecen capacidades excepcionales de razonamiento en áreas clave como matemáticas, uso de herramientas, seguimiento de instrucciones y tareas conversacionales.
Los tres modelos de la familia Llama Nemotron
La nueva familia incluye tres modelos diferentes, cada uno orientado a distintos escenarios de implementación:
- Nemotron Nano: Optimizado para dispositivos de borde y despliegues más pequeños, manteniendo una alta precisión de razonamiento.
- Nemotron Super: Equilibrado para ofrecer un rendimiento óptimo y precisión en GPUs individuales de centros de datos.
- Nemotron Ultra: Diseñado para máxima «precisión agéntica» en entornos de centros de datos con múltiples GPUs.
En cuanto a disponibilidad, Nano y Super ya están accesibles como microservicios NIM y pueden descargarse desde AI.NVIDIA.com. El modelo Ultra estará disponible próximamente.
Razonamiento híbrido: una característica diferencial
Una de las características más destacadas de Nvidia Llama Nemotron es la capacidad de activar o desactivar el razonamiento según sea necesario. Esta funcionalidad, conocida como razonamiento híbrido o condicional, está emergiendo como una capacidad importante en el mercado de la IA.
Sistemas similares se encuentran en Anthropic Claude 3.7, aunque este es un modelo propietario cerrado. En el espacio de código abierto, IBM Granite 3.2 también ofrece un interruptor de razonamiento que IBM denomina «razonamiento condicional».
La promesa del razonamiento híbrido o condicional es que permite a los sistemas omitir pasos de razonamiento computacionalmente costosos para consultas simples. En una demostración, Nvidia mostró cómo el modelo podía emplear un razonamiento complejo al resolver un problema combinatorio, pero cambiar al modo de respuesta directa para consultas factuales simples.
Blueprint Agent AI-Q: conectando agentes con sistemas empresariales
Reconociendo que los modelos por sí solos no son suficientes para la implementación empresarial, Nvidia también anunció el blueprint Agent AI-Q, un marco de código abierto para conectar agentes de IA con sistemas empresariales y fuentes de datos.
«AI-Q es un nuevo blueprint que permite a los agentes consultar múltiples tipos de datos (texto, imágenes, vídeo) y aprovechar herramientas externas como búsqueda web y otros agentes», explicó Briski. «Para equipos de agentes conectados, el blueprint proporciona observabilidad y transparencia en la actividad del agente, permitiendo a los desarrolladores mejorar el sistema con el tiempo».
El blueprint AI-Q estará disponible a partir de abril.
Importancia para la adopción empresarial de IA
Para las empresas que consideran implementaciones avanzadas de agentes de IA, los anuncios de Nvidia abordan varios desafíos clave.
La naturaleza abierta de los modelos Llama Nemotron permite a las empresas implementar IA con capacidad de razonamiento dentro de su propia infraestructura. Esto es importante ya que puede abordar preocupaciones de soberanía de datos y privacidad que han limitado la adopción de soluciones exclusivamente en la nube. Al construir los nuevos modelos como NIMs, Nvidia también está facilitando la implementación y gestión de despliegues, ya sea en instalaciones locales o en la nube.
El enfoque de razonamiento híbrido o condicional también es importante, ya que proporciona a las organizaciones otra opción para este tipo de capacidad emergente. El razonamiento híbrido permite a las empresas optimizar para exhaustividad o velocidad, ahorrando en latencia y computación para tareas más simples mientras se mantiene la capacidad de razonamiento complejo cuando es necesario.
A medida que la IA empresarial avanza más allá de aplicaciones simples hacia tareas de razonamiento más complejas, la oferta combinada de Nvidia de modelos de razonamiento eficientes y marcos de integración posiciona a las empresas para implementar agentes de IA más sofisticados. Estos agentes pueden manejar problemas lógicos de múltiples pasos manteniendo la flexibilidad de implementación y la eficiencia de costos.
Con este lanzamiento, Nvidia refuerza su posición en el competitivo mercado de la IA y proporciona a las empresas nuevas herramientas para avanzar en la implementación de sistemas de IA agéntica capaces de razonar y adaptarse a diversas situaciones y necesidades.