Un reciente análisis realizado por Epoch AI, un instituto de investigación sin ánimo de lucro, revela que el consumo energético de ChatGPT podría ser significativamente menor de lo que se estimaba anteriormente. El estudio contradice la creencia generalizada sobre el alto consumo energético del popular chatbot de OpenAI.
Nueva estimación del consumo energético
Según el análisis de Epoch AI, una consulta típica en ChatGPT consume aproximadamente 0.3 vatios-hora de energía, una cantidad considerablemente inferior a los 3 vatios-hora que se citaban frecuentemente en estudios anteriores. Esta cifra previa, que sugería que ChatGPT consumía 10 veces más energía que una búsqueda en Google, parece haber sido una sobreestimación.
"El uso de energía realmente no es gran cosa en comparación con el uso de electrodomésticos normales, la calefacción o refrigeración de tu casa, o conducir un coche", explicó Joshua You, analista de datos en Epoch AI, a TechCrunch.
Factores que influyen en el consumo
El consumo energético de ChatGPT varía significativamente según varios factores:
- El tipo de modelo de IA utilizado
- La complejidad de las consultas
- El procesamiento de entrada de datos
- Las características adicionales como la generación de imágenes
Es importante señalar que las consultas con "entrada larga" – aquellas que incluyen archivos adjuntos o textos extensos – probablemente consuman más electricidad que una pregunta típica.
Preocupaciones sobre el impacto ambiental
A pesar de estas cifras más optimistas, el impacto ambiental de la IA sigue siendo motivo de preocupación. La semana pasada, más de 100 organizaciones publicaron una carta abierta solicitando a la industria de la IA y a los reguladores que garanticen que los nuevos centros de datos no agoten los recursos naturales ni obliguen a las empresas de servicios públicos a depender de fuentes de energía no renovables.
Perspectivas futuras
You advierte que el consumo energético base de ChatGPT probablemente aumentará en el futuro. La atención de OpenAI y la industria de la IA se está desplazando hacia los modelos de razonamiento, que son más capaces pero requieren más potencia de cómputo para funcionar.
Estos modelos de razonamiento "piensan" durante segundos o minutos antes de responder, a diferencia de modelos como GPT-4o que responden casi instantáneamente. Este proceso de "pensamiento" consume significativamente más energía.
Recomendaciones para usuarios
Para aquellos preocupados por su huella energética al usar IA, You sugiere:
- Utilizar las aplicaciones de IA con moderación
- Seleccionar modelos que minimicen el cómputo necesario
- Optar por modelos más pequeños como GPT-4o-mini cuando sea posible
- Evitar el procesamiento o generación de grandes cantidades de datos
La investigación de Epoch AI proporciona una perspectiva más matizada sobre el consumo energético de la IA, aunque el rápido crecimiento de la industria y la adopción de modelos más complejos sugieren que el impacto ambiental seguirá siendo un tema crucial en los próximos años.