En una reciente aparición pública, el consejero delegado de OpenAI, Sam Altman, hizo una declaración que ha encendido las alarmas sobre el futuro energético del planeta. Durante una conferencia sobre inteligencia artificial organizada por el fabricante de chips AMD, Altman admitió que su visión para el desarrollo de la IA pasa por consumir una «fracción significativa» de la red eléctrica mundial. Esta afirmación, realizada ante la CEO de AMD, Lisa Su, pone de manifiesto el insaciable apetito energético de los modelos de inteligencia artificial y plantea serias dudas sobre su sostenibilidad y su impacto medioambiental.
El comentario de Altman no fue una declaración aislada, sino la respuesta a una pregunta directa sobre los límites del crecimiento de la IA, un tema que preocupa cada vez más a la industria tecnológica.
Una confesión en la cumbre de la IA
El revelador intercambio tuvo lugar la semana pasada en la conferencia de inteligencia artificial de AMD. Según informó Laptop Mag, la anfitriona del evento y CEO de la compañía, Lisa Su, mencionó las recientes y masivas caídas de servicio de ChatGPT. Su, que cuenta a Altman entre sus clientes y amigos, le preguntó directamente: «¿Habrá alguna vez suficientes GPUs?».
Las GPUs, o Unidades de Procesamiento Gráfico, son los chips de alta gama que empresas como AMD fabrican y que son esenciales para entrenar y operar los grandes modelos lingüísticos (LLM) como el que impulsa a ChatGPT. La pregunta de Su tocaba el núcleo de uno de los mayores cuellos de botella para el avance de la IA: la disponibilidad de potencia de cálculo.
Tras una pausa y una leve sonrisa, Altman respondió, verbalizando lo que muchos en la industria piensan pero pocos se atreven a decir en voz alta. «Teóricamente, en algún momento, se puede ver que una fracción significativa de la energía de la Tierra debería dedicarse a la computación de IA», afirmó Altman. «Y puede que lleguemos a eso».
La declaración es especialmente contundente viniendo del CEO de la empresa de IA más importante del mundo, y dirigida a la máxima responsable de una de las compañías de cuyos chips se ha comprometido recientemente a adquirir. Aunque Lisa Su cambió de tema rápidamente, la implicación de las palabras de Altman resonó con fuerza, dibujando un futuro con una demanda energética sin precedentes.
El apetito insaciable por la computación
La necesidad de más energía y más hardware no es un problema teórico para OpenAI. Aunque la compañía no ha revelado las causas exactas de su masiva caída de servicio en junio, todo apunta a que la falta de capacidad de computación fue un factor clave. Esta hipótesis cobra aún más fuerza si se tiene en cuenta que el propio Altman admitió a principios de año que la compañía se había quedado sin GPUs.
Los modelos de inteligencia artificial como ChatGPT requieren una cantidad ingente de operaciones matemáticas para generar respuestas, analizar datos y aprender. Cada una de estas operaciones se realiza en centros de datos repletos de miles de GPUs que consumen enormes cantidades de electricidad y, además, generan un calor que exige costosos sistemas de refrigeración, los cuales también consumen energía. La confesión de Altman, por tanto, no es solo una predicción, sino el reflejo de una necesidad operativa acuciante para mantener sus «máquinas de alucinaciones», como las describe la fuente, en funcionamiento.
El impacto medioambiental: la gran pregunta ignorada
Quizás el aspecto más preocupante de la desenfadada admisión de Altman es la aparente omisión de sus consecuencias medioambientales. Como recuerda la Agencia de Protección Ambiental de Estados Unidos (EPA), la generación de electricidad convencional depende en gran medida de la quema de combustibles fósiles, un proceso que ha contribuido de forma decisiva al cambio climático mucho antes de que OpenAI existiera.
Añadir una nueva industria con un consumo eléctrico masivo a una red eléctrica que en muchos lugares ya se encuentra al límite supone un desafío monumental. La visión de Altman implica una de dos cosas: o bien un aumento drástico en la quema de combustibles fósiles para satisfacer la demanda, o bien una transición acelerada y a escala global hacia fuentes de energía renovables que, a día de hoy, parece lejana. Líderes como Altman y Su, y gran parte de la industria que impulsa la IA, parecen no querer afrontar directamente esta incómoda realidad.
Minimizando el consumo: ¿una estrategia de comunicación?
En un intento por abordar estas preocupaciones, Sam Altman publicó recientemente una entrada en su blog en la que describía un futuro cercano que él denomina la «singularidad suave«, el punto en el que la inteligencia artificial iguala o supera las capacidades humanas. En este texto, intentó contextualizar el consumo energético de su producto estrella.
«La gente suele tener curiosidad por saber cuánta energía consume una consulta de ChatGPT; la consulta media utiliza unos 0,34 vatios-hora, aproximadamente lo que usaría un horno en poco más de un segundo, o una bombilla de alta eficiencia en un par de minutos», escribió el CEO. «También utiliza unos 0,000085 galones de agua; aproximadamente una quinceava parte de una cucharadita».
Sin embargo, presentar el consumo de ChatGPT en sus unidades más pequeñas puede ocultar la magnitud real de su huella energética. Un estudio reciente realizado por la Universidad de California, Riverside, y el Washington Post ofrece una perspectiva muy diferente. Según sus cálculos, ChatGPT ya consume casi 40 millones de kilovatios-hora de energía al día. Para ponerlo en perspectiva, esa cantidad es suficiente para alimentar el Empire State Building durante 18 meses o para cargar ocho millones de teléfonos inteligentes.
Es importante destacar que estas cifras no tienen en cuenta otros modelos de IA ni sistemas de otras empresas, lo que significa que el impacto medioambiental real de la industria es todavía mayor. A pesar de la gran cantidad de energía mundial que ya se destina a la IA, Altman deja claro que él y sus colegas necesitarán cada vez más, y como sugirió Lisa Su, puede que nunca haya suficientes GPUs para saciar esa sed de poder.
Más sobre IA y energía: El ex-CEO de Google declara ante el Congreso que el 99 por ciento de toda la electricidad se utilizará para alimentar una IA superinteligente