El consumo de agua de ChatGPT: Sam Altman afirma que una consulta gasta una cantidad mínima, pero la realidad es más compleja

Droids

El debate sobre el impacto ambiental de la inteligencia artificial ha alcanzado un nuevo punto de interés tras unas recientes declaraciones del CEO de OpenAI. Sam Altman ha afirmado que una consulta promedio en ChatGPT consume una cantidad de agua sorprendentemente pequeña, una cifra que contrasta fuertemente con las crecientes preocupaciones y diversos estudios que alertan sobre la considerable huella hídrica de esta tecnología. Aunque su afirmación puede ser técnicamente cierta, la visión global revela un panorama mucho más complejo y exigente en cuanto a recursos.

La sorprendente cifra de Sam Altman

Durante su participación en un evento de CogX en Zúrich, Sam Altman, CEO de OpenAI, ha ofrecido una cifra sorprendentemente baja sobre el coste hídrico de su producto estrella. Según Altman, una consulta promedio realizada a ChatGPT consume «aproximadamente una quinceava parte de una cucharadita» de agua. Esta cantidad, que equivale a unos 0,33 mililitros, es prácticamente una gota.

Altman hizo una distinción clave para contextualizar su afirmación. Se refirió específicamente al proceso de inferencia, que es el término técnico para la tarea de ejecutar una consulta y generar una respuesta. Reconoció que este proceso es mucho más eficiente que el entrenamiento de los modelos de IA, una fase que, según sus propias palabras, sí «puede consumir bastante agua».

El entrenamiento es el proceso intensivo en el que un modelo como GPT-4 aprende a partir de ingentes cantidades de datos. Requiere una potencia de cálculo masiva y, por extensión, una gran cantidad de energía y refrigeración, que a menudo depende del agua. La inferencia, en cambio, es la aplicación práctica de ese modelo ya entrenado, una tarea comparativamente más ligera. La afirmación de Altman se centra en esta última, la que realiza un usuario cada vez que escribe una pregunta en ChatGPT.

Los estudios académicos pintan un cuadro diferente

La cifra proporcionada por Altman choca frontalmente con las conclusiones de varios análisis independientes. Un estudio de 2023, citado por The Verge y realizado por investigadores de la Universidad de Colorado Riverside y la Universidad de Texas en Arlington, estimó un consumo mucho mayor. Según sus cálculos, una conversación de entre 20 y 50 preguntas con el modelo GPT-3 podría requerir el equivalente a una botella de agua de medio litro (500 ml).

¿Cómo es posible una discrepancia tan grande? La clave reside en lo que se está midiendo. Mientras que Altman habla de una única consulta, el estudio analiza el coste de una conversación completa. Una interacción típica con un chatbot no suele limitarse a una sola pregunta, sino que implica un diálogo con múltiples intercambios. Cada pregunta y su consiguiente respuesta suman en el consumo total de recursos.

Además, otras grandes tecnológicas también han aportado datos que sugieren un consumo considerable. Una investigación de la propia Google de 2023 concluyó que una conversación con su modelo LaMDA podría consumir hasta un litro de agua. Por lo tanto, aunque la «pizca» de agua de Altman por consulta individual sea precisa, el uso acumulado en una interacción normal parece ser sustancialmente mayor.

El verdadero coste hídrico: más allá de una sola consulta

Para comprender la verdadera escala del problema, es necesario mirar más allá de la consulta individual y observar las cifras globales de consumo de la industria. Las propias empresas tecnológicas, aunque a menudo criticadas por su falta de transparencia, publican informes ambientales que ofrecen una visión más amplia.

El informe de impacto ambiental de OpenAI de 2023 reveló que la compañía utilizó 700.000 metros cúbicos de agua en 2022. Esto equivale a 700 millones de litros, una cantidad suficiente para llenar más de 280 piscinas olímpicas. El informe, sin embargo, no desglosa este consumo por tipo de actividad, impidiendo saber qué parte corresponde al entrenamiento y cuál a las consultas de los usuarios.

Por su parte, Google, en su informe ambiental de 2023, declaró un consumo de agua en sus centros de datos de 5.200 millones de galones en 2022, lo que se traduce en casi 20.000 millones de litros. Estas cifras mastodónticas reflejan la sed de los centros de datos que sustentan no solo la IA, sino toda la infraestructura de la nube.

El coste del entrenamiento, que Altman admitió ser elevado, es particularmente notable. Se ha estimado que solo el entrenamiento del modelo GPT-3 en los centros de datos de Microsoft en Estados Unidos pudo haber consumido unos 700.000 litros de agua. Este dato pone de relieve que el mayor impacto hídrico se produce antes incluso de que el primer usuario haga una pregunta.

La importancia de la geografía y la energía del futuro

Otro factor crucial, a menudo pasado por alto, es la ubicación geográfica de los centros de datos. Como señala el estudio de la Universidad de Colorado, consumir un litro de agua en una región con abundancia de recursos hídricos, como Iowa, no tiene el mismo impacto que consumirlo en una zona con estrés hídrico, como Arizona. El agua se utiliza principalmente para refrigerar los miles de servidores que trabajan a pleno rendimiento, y extraerla de cuencas ya sobreexplotadas agrava los problemas medioambientales locales.

Consciente de la insostenible demanda de recursos a largo plazo, Sam Altman también compartió su visión sobre el futuro energético. Según The Verge, Altman afirmó que el crecimiento exponencial de la IA requerirá un gran avance en la producción de energía, y apostó por la fusión nuclear como la solución definitiva. «No hay forma de llegar allí sin un gran avance», comentó, refiriéndose a la capacidad de satisfacer la futura demanda energética mundial.

En conclusión, la afirmación de Sam Altman sobre el minúsculo consumo de agua de una sola consulta de ChatGPT, aunque probablemente correcta desde un punto de vista estrictamente técnico, corre el riesgo de simplificar en exceso un problema complejo y de gran escala. El verdadero impacto ambiental de la inteligencia artificial no reside en la gota, sino en el océano de recursos —agua y energía— que se necesitan para entrenar los modelos y atender los miles de millones de consultas que se realizan a diario en todo el mundo. La demanda de una mayor transparencia por parte de las empresas tecnológicas sigue siendo fundamental para poder evaluar y mitigar de forma efectiva una huella ecológica que no para de crecer.

Deja un comentario