OpenAI, la organización detrás del revolucionario ChatGPT, está dando un paso monumental para asegurar su liderazgo en la carrera de la inteligencia artificial. La compañía planea la construcción de uno de los centros de datos más grandes y potentes de Europa, un proyecto que podría albergar hasta 100.000 de los codiciados chips de Nvidia y cuya inversión se estima en 1.000 millones de dólares (cerca de 930 millones de euros). Esta iniciativa, realizada en colaboración con la firma especializada Stack Infrastructure, busca proporcionar la potencia computacional necesaria para entrenar la próxima generación de modelos de IA, como el esperado GPT-5.
El proyecto, que según informes de medios como The Register y Data Center Dynamics, se encuentra en sus fases iniciales, representa una apuesta estratégica de OpenAI para controlar su propia infraestructura y reducir su dependencia de terceros, incluso de su principal socio, Microsoft.
Un salto de gigante en la capacidad computacional
El corazón de este nuevo superordenador estará compuesto por una cifra asombrosa: 100.000 unidades de procesamiento gráfico (GPU) Nvidia H100. Para entender la magnitud de esta cifra, es necesario explicar qué son las GPU. Aunque originalmente se diseñaron para procesar gráficos en videojuegos, su arquitectura de procesamiento en paralelo las ha convertido en la herramienta indispensable para entrenar los complejos modelos de inteligencia artificial, que requieren realizar billones de cálculos simultáneamente.
Las H100 de Nvidia son, actualmente, el estándar de oro en este campo, ofreciendo un rendimiento muy superior a sus predecesoras. Disponer de 100.000 de estas unidades colocaría a OpenAI en una posición de ventaja abrumadora para desarrollar modelos de IA más grandes, complejos y capaces que cualquiera de los existentes hoy en día.
La inversión para un proyecto de esta envergadura es igualmente colosal. Las estimaciones sitúan el coste en mil millones de dólares, una cantidad que subraya la importancia que OpenAI otorga a la 확보 de hardware. El socio en esta empresa, Stack Infrastructure, es una compañía de rápido crecimiento especializada en la construcción y gestión de centros de datos a gran escala, lo que aporta la experiencia necesaria para llevar a cabo una obra de esta complejidad.
La carrera por el dominio del hardware en la IA
Este movimiento de OpenAI no ocurre en el vacío. Se enmarca en lo que muchos expertos describen como una auténtica «carrera armamentística» por el hardware de IA. Las principales empresas tecnológicas del mundo son conscientes de que el acceso a una potencia de cálculo masiva es el principal cuello de botella para seguir avanzando.
- Meta (Facebook), por ejemplo, anunció en 2022 su propio superordenador, el AI Research SuperCluster (RSC), que planeaba equipar con 16.000 GPUs Nvidia A100. El proyecto de OpenAI, con 100.000 unidades de la generación más avanzada (H100), empequeñece esta cifra y demuestra la escalada exponencial de la competición.
- Google, por su parte, ha estado invirtiendo durante años en sus propios chips personalizados, conocidos como Unidades de Procesamiento Tensorial (TPU). Como informó The New York Times, Google utiliza estos chips para potenciar sus propios productos de IA y los ofrece a sus clientes de la nube como alternativa a Nvidia.
- Amazon Web Services (AWS) y Microsoft Azure también están desarrollando sus propios semiconductores para reducir su dependencia de Nvidia y optimizar los costes.
En este contexto, el superordenador de OpenAI es una declaración de intenciones: no solo quiere liderar en el desarrollo de algoritmos, sino también en la capacidad de ejecutarlos a una escala sin precedentes.
El misterio de la ubicación y el factor energético
Uno de los mayores interrogantes del proyecto es su ubicación exacta, que se mantiene en secreto. Sin embargo, fuentes del sector como HPCWire sugieren que los países nórdicos, y en especial Noruega, son los candidatos más probables. Las razones son puramente estratégicas y económicas.
Un centro de datos de esta magnitud consumirá una cantidad ingente de electricidad. Noruega ofrece acceso a energía hidroeléctrica abundante, relativamente barata y, sobre todo, renovable, un factor cada vez más importante para la imagen y la sostenibilidad de las grandes tecnológicas. Además, el clima frío de la región permite reducir drásticamente los costes de refrigeración de los miles de servidores, uno de los mayores gastos operativos de cualquier centro de datos.
Mantener la ubicación en secreto durante las fases iniciales es una práctica común para evitar la especulación inmobiliaria y facilitar las negociaciones con los gobiernos locales y los proveedores de energía.
¿Un nuevo capítulo en la relación OpenAI-Microsoft?
La decisión de OpenAI de embarcarse en este proyecto de forma independiente es particularmente interesante dada su profunda alianza con Microsoft. El gigante de Redmond ha invertido más de 13.000 millones de dólares en OpenAI y su plataforma en la nube, Azure, ha sido hasta ahora la principal infraestructura sobre la que se han entrenado y ejecutado modelos como GPT-4.
Este nuevo centro de datos sugiere un deseo por parte de OpenAI de diversificar su infraestructura y no depender de un único proveedor, por muy cercano que sea. Esta estrategia de independencia cobra aún más sentido si se consideran las ambiciones a largo plazo de su CEO, Sam Altman. Según informó TechCrunch a principios de año, Altman ha estado buscando recaudar billones de dólares para crear una red de fábricas de semiconductores, en un intento de resolver el problema de la escasez y el alto coste de los chips de IA.
Aunque ese plan es mucho más ambicioso, la construcción de su propio superordenador es un primer paso lógico en esa dirección: asegurar el control sobre el recurso más crítico para el futuro de la inteligencia artificial: la potencia de cálculo. El proyecto europeo no solo impulsará el desarrollo de GPT-5, sino que también redefinirá el mapa geopolítico de la infraestructura de IA en el mundo.






