Nvidia elogia el modelo de IA chino DeepSeek R1 pese a la caída de sus acciones

Droids

Updated on:

Nvidia elogia el modelo de IA chino DeepSeek R1 pese a la caída de sus acciones

El gigante tecnológico Nvidia ha calificado el modelo de inteligencia artificial DeepSeek R1, desarrollado en China, como "un excelente avance en IA", a pesar de que el anuncio provocó una caída del 17% en el valor de sus acciones este lunes.

Un reconocimiento sorprendente

"DeepSeek es un excelente avance en IA y un ejemplo perfecto de Test Time Scaling", declaró un portavoz de Nvidia a CNBC. La empresa estadounidense destacó que el trabajo de DeepSeek demuestra cómo se pueden crear nuevos modelos utilizando técnicas que cumplen plenamente con los controles de exportación vigentes.

Desarrollo eficiente y económico

Una de las características más llamativas del modelo DeepSeek R1 es su costo de desarrollo, que según los informes fue inferior a 6 millones de dólares (aproximadamente 5,5 millones de euros). Esta cifra contrasta significativamente con las inversiones multimillonarias que realizan las grandes empresas tecnológicas estadounidenses en infraestructura de IA.

Impacto en las grandes inversiones

El desarrollo de DeepSeek R1 ha llevado a los analistas a cuestionar la necesidad de inversiones masivas como las anunciadas por:

  • Microsoft: 80.000 millones de dólares (74.000 millones de euros) en infraestructura de IA para 2025
  • Meta: entre 60.000 y 65.000 millones de dólares (55.000-60.000 millones de euros) en gastos de capital para 2025

"Si los costos de entrenamiento de modelos resultan ser significativamente más bajos, esperaríamos un beneficio de costos a corto plazo para las empresas de publicidad, viajes y otras aplicaciones de consumo que utilizan servicios de IA en la nube", señaló Justin Post, analista de BofA Securities, en una nota publicada este lunes.

Nueva perspectiva en el escalado de IA

El CEO de Nvidia, Jensen Huang, junto con Sam Altman de OpenAI y Satya Nadella de Microsoft, han estado discutiendo un nuevo concepto llamado "test-time scaling". Este enfoque sugiere que un modelo de IA completamente entrenado puede proporcionar mejores respuestas si se le permite más tiempo de procesamiento durante la fase de predicción o generación de contenido.

Implicaciones tecnológicas

Nvidia enfatizó que la inferencia del modelo requiere "números significativos de GPUs NVIDIA y redes de alto rendimiento". La empresa también aclaró que los GPUs utilizados por DeepSeek cumplían completamente con las regulaciones de exportación, contradiciendo las afirmaciones previas sobre el uso de hardware restringido.

Perspectivas de mercado

El desarrollo de DeepSeek R1 ha generado debate sobre el futuro de las inversiones en infraestructura de IA. Los analistas están evaluando si las grandes inversiones en hardware de Nvidia por parte de empresas como Microsoft, Google y Meta podrían estar sobredimensionadas si se pueden lograr resultados similares con presupuestos más modestos.

La noticia marca un momento significativo en la evolución de la IA global, donde la eficiencia en costos y el desarrollo tecnológico están redefiniendo las expectativas del mercado y el panorama competitivo internacional.

Deja un comentario