La huella climática de la IA: una incógnita en plena expansión
- Redacción IT NOW
- hace 5 días
- 4 Min. de lectura
La falta de transparencia por parte de los desarrolladores y la complejidad para medir su consumo energético dejan a expertos, gobiernos y usuarios a ciegas frente a una revolución tecnológica que podría estar reconfigurando el equilibrio energético global.

A tres años del boom de la inteligencia artificial generativa, aún no sabemos con certeza cuánto contamina. El cálculo de su huella climática sigue siendo una nebulosa: hay estimaciones, advertencias y modelos teóricos, pero faltan datos concretos y verificables. Lo más alarmante es que no estamos hablando de un tema marginal. La IA, en especial los modelos como ChatGPT, Bard, Claude o Grok, ya consume enormes cantidades de energía y agua, tanto en su fase de entrenamiento como en la operación diaria para responder a millones de usuarios.
Mientras los usuarios comienzan a preguntarse si utilizar un chatbot es ambientalmente responsable, los desarrolladores se resguardan tras la confidencialidad. Compañías como OpenAI, Google, Anthropic y xAI evitan divulgar cifras precisas sobre cuánta energía requiere el entrenamiento y uso de sus modelos. Este silencio no es inocente: sin datos públicos, es imposible fiscalizar el impacto de estas tecnologías sobre el planeta.
Según un cálculo frecuentemente citado, una consulta a ChatGPT podría consumir unas 2,9 watt-hora, aproximadamente diez veces más que una búsqueda en Google. Sin embargo, estos valores están en disputa. El grupo de investigación independiente Epoch AI considera que ese número es probablemente una sobreestimación, dado que los modelos y los chips que los ejecutan han ganado eficiencia. Pero al mismo tiempo, la tendencia hacia modelos más grandes y potentes podría estar contrarrestando estos avances.
Lo cierto es que el entrenamiento de los modelos más sofisticados se ha vuelto un proceso intensivo y costoso desde el punto de vista ambiental. Según el último informe del Artificial Intelligence Index de la Universidad de Stanford, entrenar AlexNet en 2012 generó solo 0,01 toneladas de CO₂, mientras que entrenar GPT-4 en 2023 generó unas 5.184 toneladas. En 2024, el modelo LLaMA 3.1 de 405B parámetros elevó esa cifra a 8.930 toneladas de carbono. Para dimensionar este número: el estadounidense promedio emite unas 18 toneladas al año, según publicó Axios.
Pero el carbono no es el único problema. Los centros de datos que albergan y ejecutan estos modelos consumen enormes volúmenes de agua para su refrigeración y se alimentan de redes eléctricas locales, muchas veces en comunidades marginadas. El Instituto de Investigación Energética EPRI advierte que la potencia demandada por los centros de entrenamiento de IA se ha duplicado cada año, concentrando el consumo energético en pocos puntos del mapa.
Desde Harvard Business Review ya se alertaba en 2023 sobre la falta de enfoque en la justicia ambiental en este debate: ¿quién paga realmente el precio ecológico de esta transformación? La respuesta, por ahora, apunta a una distribución desigual.
Hasta hace poco, se pensaba que el entrenamiento de los modelos era el componente más costoso desde el punto de vista energético. Sin embargo, con millones de personas utilizando IA generativa a diario, esa ecuación podría estar cambiando. La fase conocida como inferencia —es decir, cuando los modelos responden a los usuarios— también requiere potencia computacional considerable, y se prolonga en el tiempo mucho más que el entrenamiento inicial.
Incluso si mañana dejáramos de utilizar IA como usuarios finales, la infraestructura ya está montada y las demandas de energía no dejarán de crecer. Reuters reveló recientemente que casi la mitad de las 13 principales compañías eléctricas de EE. UU. han sido contactadas por operadores de centros de datos solicitando volúmenes de energía que superan su capacidad actual.
Paradójicamente, la inteligencia artificial también podría ser parte de la solución. Según la Agencia Internacional de Energía, la aplicación masiva de herramientas de IA podría reducir hasta un 5% de las emisiones energéticas globales, llegando al 8% en sectores como la fabricación de electrónicos. El Foro Económico Mundial va incluso más allá y estima que la IA podría mitigar entre un 5 y un 10% de las emisiones globales de gases de efecto invernadero.
Pero para que eso ocurra, se necesita un cambio estructural. Andrew Masley, exprofesor de física y hoy miembro de Effective Altruism D.C., sostiene que obsesionarse con reducir el número de prompts en ChatGPT no es el camino. “Las acciones individuales tienen poco peso frente a la necesidad de una reforma sistémica de nuestros sistemas energéticos”, argumenta.
La falta de claridad sobre el impacto real de la IA pone en jaque a gobiernos, organizaciones ambientales y usuarios conscientes. Sin información abierta y confiable, no hay forma de establecer regulaciones efectivas ni de impulsar un desarrollo tecnológico alineado con los objetivos climáticos globales.
La carrera por la supremacía en IA —particularmente entre Estados Unidos y China— ha provocado un nuevo “pragmatismo energético”, donde el impacto ambiental parece quedar en segundo plano frente al imperativo geopolítico. Como resumió recientemente Eric Schmidt, exCEO de Google, ante el Congreso de EE. UU.: “Necesitamos energía en todas sus formas. Renovable, no renovable, lo que sea. Tiene que estar disponible, y rápido”.
En este nuevo escenario, la inteligencia artificial ya no es solo una herramienta revolucionaria. Es también un actor con peso propio en el ecosistema energético global. Y cuanto antes dejemos de especular para empezar a medir, más posibilidades tendremos de que su futuro sea también sostenible.
Le puede interesar: