Un laboratorio de inteligencia artificial chino relativamente desconocido, DeepSeek, ha sacudido Silicon Valley al presentar nuevos modelos de IA que superan a los mejores sistemas estadounidenses, pese a haber sido desarrollados con menor presupuesto y hardware más limitado.
Un nuevo competidor surge en el horizonte
DeepSeek ha logrado desarrollar un modelo de lenguaje de código abierto que, según afirma la compañía, requirió apenas dos meses de desarrollo y una inversión inferior a 6 millones de dólares (aproximadamente 5.5 millones de euros), utilizando chips Nvidia H800 de capacidad reducida.
Superando a los gigantes tecnológicos
En una serie de pruebas comparativas realizadas por terceros, el modelo de DeepSeek ha demostrado superior rendimiento frente a competidores establecidos como:
- Llama 3.1 de Meta
- GPT-4o de OpenAI
- Claude Sonnet 3.5 de Anthropic
El éxito no se detuvo ahí: el lunes, la compañía lanzó r1, un modelo de razonamiento que también superó al último modelo o1 de OpenAI en numerosas pruebas.
La reacción de Silicon Valley
La noticia ha generado una significativa preocupación en el sector tecnológico estadounidense. Satya Nadella, CEO de Microsoft, expresó durante el Foro Económico Mundial en Davos: «Deberíamos tomar los desarrollos provenientes de China muy, muy en serio», reconociendo la impresionante eficiencia computacional del nuevo modelo.
Navegando las restricciones tecnológicas
Lo más sorprendente del logro de DeepSeek es que se ha conseguido a pesar de las estrictas restricciones impuestas por Estados Unidos sobre la exportación de semiconductores avanzados a China. Chetan Puttagunta, socio general de Benchmark, explica la estrategia: «Pueden tomar un modelo grande muy bueno y usar un proceso llamado destilación. Básicamente, utilizas un modelo muy grande para ayudar a tu modelo pequeño a volverse inteligente en aquello que quieres que aprenda. Esto es realmente eficiente en costos.»
Un fenómeno más amplio
DeepSeek no es un caso aislado en el avance chino en IA. La empresa emergente 01.ai, dirigida por el reconocido investigador Kai-Fu Lee, ha informado que entrenó su modelo con solo 3 millones de dólares (2.75 millones de euros). Además, ByteDance, la empresa matriz de TikTok, acaba de presentar una actualización de su modelo que supera a OpenAI en pruebas de referencia clave.
Implicaciones para la competencia global
DeepSeek, que surgió de un fondo de inversión cuántico chino llamado High-Flyer Quant que gestiona aproximadamente 8 mil millones de dólares (7.35 mil millones de euros), representa un cambio significativo en el panorama de la IA global. Como señala Aravind Srinivas, CEO de Perplexity: «La necesidad es la madre de la invención. Debido a que tuvieron que encontrar soluciones alternativas, terminaron construyendo algo mucho más eficiente.»
Estos avances no solo cuestionan el liderazgo estadounidense en IA, sino también la necesidad de las grandes inversiones y centros de datos masivos que las empresas tecnológicas occidentales han considerado hasta ahora imprescindibles para el desarrollo de modelos de IA avanzados.