
La contaminación oculta de la IA | Por qué los “algoritmos limpios” son un mito
La inteligencia artificial nos deslumbra con su promesa: conocimientos más rápidos, automatización más inteligente, herramientas creativas al alcance de la mano. Pero detrás del escenario deja un rastro más oscuro: consumo masivo de energía, agotamiento del agua, residuos electrónicos e incluso costes para la salud. Si no afrontamos el impacto ambiental de la IA, corremos el riesgo de socavar una de las pocas revoluciones tecnológicas que podría ayudarnos a combatir el cambio climático. Aquí están las razones de fondo por las que la IA es perjudicial para el medioambiente —con datos de miedo, advertencias de expertos y algunos caminos a seguir.
Consumo energético gigantesco y emisiones de carbono
La Inteligencia Artificial es una herramienta con un enorme potencial para ayudarnos a afrontar el cambio climático, las enfermedades, los descubrimientos científicos y mucho más. Pero debemos dejar de blanquearla como “verde por defecto”. Ocultos en su infraestructura existen problemas graves: contaminación, agotamiento de recursos e inequidad.
Entrenar grandes modelos de IA está lejos de ser barato en términos energéticos. En Harvard Business Review, Shaolei Ren y Adam Wierman informan de que entrenar un solo modelo grande puede consumir miles de megavatios por hora de electricidad y emitir cientos de toneladas de CO₂. Según “How Companies Can Mitigate AI’s Growing Environmental Footprint”, algunas estimaciones sugieren que operar un gran modelo de IA a lo largo de su vida útil emite más carbono que un coche convencional.
Por su parte, el artículo de MIT News “Explained: Generative AI’s environmental impact” destaca que los modelos generativos (como ChatGPT) requieren un enorme poder computacional —y que la inferencia (responder a las consultas de los usuarios) implica un consumo energético continuo.
Solo en Estados Unidos, un análisis de 2.132 centros de datos reveló que consumieron más del 4% de la electricidad nacional, produjeron más de 105 millones de toneladas de CO₂e y tuvieron intensidades de carbono un 48% superiores al promedio nacional. A medida que los modelos de IA se entrenan, reentrenan y usan cada vez más, esta demanda de energía crece más rápido de lo que muchas redes eléctricas y sistemas renovables pueden soportar.
En términos de IA, necesitamos nuevas normas: auditorías de impacto ambiental, regulación, estándares abiertos e ingeniería que valore la sostenibilidad tanto como el rendimiento.
Uso de agua y pérdidas por refrigeración
No se trata solo de electricidad: la infraestructura de la IA depende en gran medida del agua para enfriar los servidores y evitar que se derritan.
El estudio “Uneven Distribution of AI’s Environmental Impacts” señala que los centros de datos requieren enormes cantidades de agua dulce que se evapora para gestionar el calor. En “Environmental Impact of Artificial Intelligence”, algunas proyecciones estiman que para 2027 las operaciones de IA podrían extraer entre 4,2 y 6,6 mil millones de metros cúbicos de agua —más de la mitad del consumo anual de agua del Reino Unido.
Un estudio pionero titulado “Holistically Evaluating the Environmental Impact of Creating Language Models” descubrió que, más allá del entrenamiento, la fase de desarrollo del modelo (recopilación de datos, trabajo de arquitectura, pruebas) contribuyó aproximadamente con el 50% de las emisiones totales de carbono y consumió millones de litros de agua.
Las innovaciones en refrigeración —como la refrigeración líquida en lugar del aire— pueden ayudar: las investigaciones sugieren que la refrigeración líquida puede reducir las emisiones hasta en un 50%, permitir un uso de agua casi nulo y disminuir el tamaño de los edificios. En regiones propensas a la sequía, esa demanda de agua puede ser catastrófica: los ecosistemas locales y las comunidades son quienes pierden.
La propia afirmación de Google de que una solicitud de texto típica en IA utiliza “5 gotas de agua” (0,26 ml) y 0,24 vatios-hora generó críticas: los expertos sostienen que subestima el uso más amplio del sistema, ignora el consumo indirecto de agua y puede ocultar los efectos de escala.

Residuos electrónicos y otros costes ocultos de la IA
La IA exige más que ciclos de cómputo
Exige hardware de vanguardia, y eso genera costes ambientales desde el origen: las GPU (unidades de procesamiento gráfico), los ASIC y los chips especializados se fabrican con metales raros, minería intensiva y procesos químicos tóxicos. A medida que los modelos evolucionan, las empresas actualizan con frecuencia su hardware, descartando equipos antiguos y aumentando los residuos electrónicos (e-waste) a nivel mundial. “Artificial Intelligence and the Environment from the University of Delaware” señala el e-waste como un impacto grave: los componentes contienen mercurio, plomo y cadmio —peligrosos para el suelo y el agua—. La carga ambiental no se limita al uso operativo, está presente desde la minería hasta la eliminación final.
La huella de la IA no es la misma en todos lados
Algunas comunidades sufren más, sobre todo aquellas ya bajo presión. Un estudio, “The Unpaid Toll: Quantifying the Public Health Impact of AI”, sostiene que las emisiones de la IA (a lo largo de la fabricación, operación y eliminación) degradan la calidad del aire mediante partículas finas, generando cargas en la salud pública. Los autores estiman que los centros de datos de EE.UU. en 2030 podrían imponer costes en salud pública superiores a 20.000 millones de dólares anuales.
En este sentido, Reuters informó que entre 2020 y 2023, las emisiones indirectas de las grandes tecnológicas (impulsadas por la infraestructura de IA) aumentaron un 150%, debido a centros de datos de alto consumo energético. Por supuesto, el daño ambiental y los costes de salud suelen considerarse “externalidades”, es decir, no son pagados directamente por las empresas de IA, sino asumidos por residentes locales, a menudo en zonas de bajos ingresos o comunidades marginadas.
Efecto rebote y paradoja de Jevons
Mejorar la eficiencia no siempre ayuda al medio ambiente si el uso se dispara. La paradoja de Jevons sostiene que, a medida que una tecnología se vuelve más eficiente (más barata por uso), su utilización tiende a expandirse, anulando las mejoras. AP News señala que una sola búsqueda con IA puede consumir 23 veces más energía que una búsqueda típica en Google, y a medida que la IA se integre más, estos costes energéticos aumentarán.
La propia afirmación de Google de que un prompt típico de texto con IA consume “5 gotas de agua” (0,26 ml) y 0,24 vatios-hora provocó críticas: los expertos sostienen que minimiza el uso sistémico, ignora el consumo indirecto de agua y puede ocultar los efectos de escala. La eficiencia por sí sola no resolverá el problema. Si la IA se vuelve más omnipresente, el daño ambiental agregado seguirá aumentando.
“Una sola búsqueda con IA puede consumir 23 veces más energía que una búsqueda típica en Google, y a medida que la IA se integra más, estos costes energéticos aumentan.”

No digas que es sostenible si no puedes probarlo
La IA no es inherentemente mala, pero debemos adoptar controles rigurosos, transparencia y diseños sostenibles. Algunas vías sugeridas son:
El “National Engineering Policy Centre” del Reino Unido ha pedido que se haga obligatorio el reporte del consumo de energía y agua en los centros de datos. Estos deberían respetar arquitecturas verdes y principios de “IA verde”, diseñando modelos más pequeños, eficientes y validados con límites de coste ambiental. Además, todos deberíamos usar técnicas que compartan o reutilicen cálculos en lugar de reentrenar desde cero.
Aprovechar ideas como SHIELD, un marco que co-optimiza carbono, agua y energía en centros de datos distribuidos geográficamente, muestra reducciones de hasta 3,7× en carbono y 1,8× en uso de agua frente al statu quo.
Todos deberíamos pasar de la refrigeración por aire a la refrigeración líquida, que puede reducir drásticamente las emisiones y la necesidad de agua. También deberíamos integrar la recuperación del calor residual (para calefacción de edificios, universidades, etc.), como en el proyecto Aquasar.
Deberíamos elegir ubicaciones de centros de datos donde las energías renovables sean abundantes y la red eléctrica sea limpia. Pero también deberíamos fomentar el uso directo de energía solar, eólica, hidroeléctrica o incluso nuclear. Mejorar la resiliencia de las redes también es imprescindible: los picos de uso de IA suelen tensionarlas, aumentando la dependencia de respaldos fósiles. Y, por último, rastrear no solo el entrenamiento, sino también la fabricación del hardware, su transporte, eliminación y los impactos en la salud pública.
Hightlight Image:
© Unsplash