Cada vez que escribes una pregunta en un chatbot de inteligencia artificial, como ChatGPT, Gemini o Grok, se pone en marcha una maquinaria invisible, gigantesca y sedienta. No hablamos solo de la electricidad que consumen los enormes servidores donde “vive” la inteligencia artificial, sino de otro recurso mucho más limitado: el agua. Mucha agua. De hecho, según cálculos recientes, usar estos modelos puede llegar a consumir más agua que producir un café con leche.
Puede parecer exagerado, pero es uno de los descubrimientos más impactantes sobre el coste ambiental del auge de la IA generativa. A diferencia de otras tecnologías digitales que ya consumen recursos de forma considerable, la IA multiplica por cien, incluso por mil, la demanda energética de una consulta tradicional en internet. Y no solo eso: con cada petición, se evapora agua suficiente como para llenar una botella de medio litro. Y esto, repetido miles de millones de veces al día, se convierte en un problema mayúsculo.
Una sed que no cesa
Los sistemas de IA, como los basados en modelos de lenguaje a gran escala (LLM, por sus siglas en inglés), requieren inmensos centros de datos para entrenarse y funcionar. Estas instalaciones, que funcionan como cerebros digitales, generan tanto calor durante sus operaciones que necesitan ser enfriadas constantemente para no colapsar. El método más común para ello es la refrigeración mediante agua: se bombea agua fresca a través de los servidores, se calienta con el proceso y luego se evapora en torres de refrigeración.
El resultado es que esta agua, que muchas veces es potable, desaparece del ciclo hidrológico habitual. No vuelve a ríos ni al mar, y su reaparición en forma de lluvia puede tardar hasta un año, y probablemente no caiga en la misma región de donde fue extraída.
Y este detalle importa mucho. Porque muchos de los centros de datos están ubicados en zonas con estrés hídrico: áreas donde el agua ya es escasa, y donde la demanda de las poblaciones locales compite directamente con la de estos gigantes tecnológicos. En algunos municipios de Estados Unidos, como The Dalles (Oregón) o West Des Moines (Iowa), los centros de datos han llegado a consumir hasta una cuarta parte del agua disponible.

El coste de “entrenar” a la inteligencia artificial
Pero el problema no empieza cuando hacemos una pregunta a un chatbot. Comienza mucho antes, durante el proceso de entrenamiento del modelo. Enseñar a un sistema como GPT-4 a entender el lenguaje humano implica mostrarle miles de millones de palabras, frases, libros, artículos y conversaciones. Este proceso, que puede durar semanas o incluso meses, requiere una potencia de cálculo descomunal. Y eso significa más calor, más energía… y más agua para refrigerar los equipos.
Un estudio de la Universidad de California en Riverside mostró que el entrenamiento de un solo modelo de IA podía consumir varios millones de litros de agua. Esa cifra supera con creces lo que gasta una pequeña comunidad en un año. Y como cada nueva versión del modelo es más grande, más compleja y más potente, también es más sedienta.
Hasta hace poco, se creía que las cifras de consumo de agua eran mucho menores. Pero una nueva revisión de los datos mostró que el impacto real era cuatro veces mayor de lo estimado inicialmente. Esto se descubrió al analizar modelos anteriores como GPT-3, y contrastarlos con nuevas cifras de consumo energético aportadas por Microsoft. La conclusión fue clara: los cálculos eran demasiado optimistas.
El error se debió en parte a que las estimaciones se basaban en cifras proporcionadas por las propias empresas tecnológicas, que a menudo no incluyen toda la cadena de consumo, como la energía necesaria para fabricar chips o mantener operativas las redes de servidores.
La paradoja de las promesas verdes
Las grandes tecnológicas, conscientes del problema, han prometido repetidamente alcanzar objetivos sostenibles: ser “carbono neutral”, “positivos en agua”, o generar “cero residuos”. Pero los informes recientes muestran una realidad menos idealista. Google, por ejemplo, ha visto crecer su huella de carbono un 48% desde que comenzó a expandir sus operaciones de IA, y solo repone el 18% del agua que consume. De hecho, el pasado año dejó de ser considerada neutral en carbono. Meta y Microsoft tampoco alcanzan sus objetivos de sostenibilidad.
Además, muchas veces esa reposición no se hace en el lugar de donde se extrajo el agua, sino en otros lugares donde es más barato o más fácil. Lo que genera un desequilibrio ambiental difícil de justificar.

¿Hay alternativas?
La industria no es ajena al problema. Algunas empresas están probando sistemas de refrigeración por aire, tecnología de circuito cerrado que reutiliza el agua, o incluso métodos de enfriamiento con líquidos especiales que no se evaporan. También se están explorando algoritmos más eficientes, que requieren menos cálculo, y por lo tanto menos energía y agua.
Pero el ritmo de desarrollo de la IA es tan vertiginoso que los avances en sostenibilidad no logran compensar el aumento en el consumo. El problema, en muchos casos, es más de escala que de tecnología.
Además, el crecimiento exponencial del uso de chatbots y asistentes inteligentes en aplicaciones, buscadores y redes sociales hace que cada vez sea más difícil “optar por no usar IA”. Incluso cuando no lo solicitamos, muchos servicios digitales están usando IA en segundo plano, y por tanto, consumiendo recursos en nuestro nombre.
La cara invisible del progreso
En un mundo cada vez más impulsado por la tecnología, es fácil olvidar que detrás de cada clic hay una infraestructura física que consume recursos tangibles. La inteligencia artificial promete revolucionar la medicina, la educación y la industria. Pero su desarrollo también puede agravar problemas urgentes como la escasez de agua y el cambio climático.
Hoy, quizás más que nunca, necesitamos que la innovación tecnológica vaya de la mano de la responsabilidad ambiental. No basta con desarrollar herramientas brillantes: hay que asegurarse de que no dejan el planeta seco en el proceso.
Cortesía de Muy Interesante
Dejanos un comentario: