7 de abril de 2025

Divulgación

Divulgación. La huella hídrica de la Inteligencia Artificial, intangible para los usuarios, pero con impacto real

Así como cualquier industria, la de la IA toma recursos del medioambiente. Su aplicación se ha vuelto omnipresente y masiva, sin embargo, un aspecto menos conocido de esta revolución tecnológica es el considerable consumo de agua asociado a su funcionamiento. Evitar su uso compulsivo y ser más efectivo en los prompts, son algunas de las acciones ideales.

Esteban Sarabia:

La generación de contenidos con Inteligencia Artificial (IA) depende de servidores ubicados en centros de datos, los cuales requieren grandes cantidades de energía eléctrica. Esta energía, a su vez, utiliza sistemas de refrigeración para mantener los servidores a una temperatura segura, lo que resulta en un consumo significativo de agua.

"Está bueno hablar de este tema con claridad porque hay que evitar el doble discurso", anticipó Esteban Sarabia, fundador de Q4Tech y presidente del Clúster Tecnológico de Tandil. "Se cree que como la tecnología es intangible, es limpia, pero la verdad es que no es tan así", afirmó.

Se estima que la generación de una imagen con lA, utilizando modelos como Stable Diffusion o DALL-E 2, puede consumir entre 0.5 y dos litros de agua por creación, dependiendo de la eficiencia del centro de datos.

Hasta la fecha, se calcula que se han generado aproximadamente 216 millones de imágenes al estilo de Studio Ghibli, lo que equivale a un consumo estimado de 216 millones de litros de agua, o 216,000 metros cúbicos. De todas maneras, este consumo podría verse afectado por recientes informes que indican que ChatGPT ha comenzado a bloquear algunas solicitudes para crear estas ilustraciones, lo que podría limitar la cantidad total de imágenes generadas en el futuro.

"Acá lo importante creo que es tener conciencia. No es que sea mejor o peor, la industria textil o la industria agrícola también tienen consumos, pero lo que sí está bueno es entender que esto no es neutro, que no lo veamos no significa que no tenga un impacto ambiental", indicó Sarabia.

Porqué la lA necesita agua

El referente del Clúster Tecnológico local explicó que cada vez que se utilizan herramientas como ChatGPT o DALL-E, se activan servidores y centros de datos que no sólo consumen energía, sino que también requieren agua para su refrigeración.

El requerimiento de líquido surge porque los servidores generados en estos centros se calientan durante el procesamiento de datos, lo que demanda sistemas de enfriamiento, siendo el agua la opción más común. "Estos sistemas de refrigeración utilizan agua potable o semi-purificada para absorber el calor generado, lo que puede llevar a un consumo significativo, especialmente cuando se tiene en cuenta la escala de operaciones de grandes empresas de tecnología", detalló, advirtiendo que si bien no es el único, es el más común.

En este sentido, distinguió dos partes "importantes" dentro de lo que a la lA respecta. Uno es cuando se entrenan estos modelos, que se consume muchísimo procesamiento, el cual puede requerir cientos de miles de litros de agua para entrenar un modelo. "Después, cada persona que consulta ese modelo, para generar una respuesta, también implica un procesamiento que, como dije, es como medio invisible", planteó Sarabia.

El problema que vislumbró aquí es que, cuando se acumula mucha gente usando un procesador o una pregunta, la consecuencia son millones de litros de agua que se destinan a eso.

La salvedad es que va a depender de si el servidor está en un lugar frío, cálido o húmedo y allí su eficiencia será distinta. Por ejemplo, se ha identificado que en lugares como lowa y Virginia, en Estados Unidos, la disponibilidad de agua está asociada a la instalación de grandes granjas de servidores. A su vez, mencionó que de Europa, Irlanda y Suecia son los lugares que más han desarrollado los centros de servidores. En Latinoamérica, "por ahora", los dos lugares que más granjas de servidores tienen son Brasil y Chile.

"Hay unos proyectos para instalar en la Argentina unos data centers, pero hay que elegir lugares bastante específicos justamente por el tema de la sequía", anticipó.

La realidad es que a medida que los usuarios interactúan con el modelo para obtener respuestas, el consumo adicional se suma a la huella hídrica total.

Digital no es sinónimo de inmaterial

Desde una reflexión sobre lo que es posible hacer para minimizar el impacto medioambiental que se está generando, Esteban Sarabia antepuso la necesidad de entender que porque algo sea digital no significa que sea inmaterial, que lo digital está basado en una tecnología que tiene una infraestructura física, que tiene un impacto, tiene un consumo.

"Que no tenga una chimenea sacando humo no representa impacto cero. Puede ser invisible para el usuario, pero en realidad hay una red física de servidores, cables, satélites, y en este caso sistemas de refrigeración", expresó.

Asimismo, consideró preciso comprender que la inteligencia artificial es muy intensiva y costosa, "posiblemente mucho más que otras cosas, muchísimo más que mandar un mail, o muchísimo más que hacer una búsqueda en Google".

En conocimiento de estas repercusiones, aseveró que se debe tomar conciencia y hacer un uso adecuado. "No es gratuito, uno no deja una canilla abierta porque sí, la abre cuando tiene que tomar agua, propuso emparejando la situación con la lA o este tipo de procesamientos.

"Hay que entender que usar estas plataformas tiene un impacto, que son súper útiles, pero aplicarlas a conciencia", reforzó el fundador de Q4Tech.

Acciones individuales

Con certeza, el impacto hídrico de la tecnología digital se convierte en un recordatorio de que, aunque lo que vemos en nuestras pantallas puede parecer intangible, su infraestructura es física y viene con costos ambientales.

Así las cosas, este fenómeno subraya la necesidad urgente de adoptar una mentalidad más responsable y considerar las consecuencias de nuestras decisiones tecnológicas en el agua y otros recursos naturales.

"¿Qué puede hacer uno a nivel individual? Creo que desde ahí arranca todo", respondió Sarabia haciendo referencia a la toma de conciencia, evitando el uso compulsivo innecesario. Con esto avaló el requerimiento de la lA como herramienta para resolver algo concreto, más no para "pavear" o generar interacciones superfluas.

"Le puedo pedir a una inteligencia artificial que me ayude a trabajar con una temática, pero para hacer la lista de las compras de casa la hago yo en un papel, no necesito una IA", ejemplificó, instando a no usarla como una especie de sustituto de pensamiento, porque es un complemento.

Otra de las acciones que sugirió para hacer de éste un recurso más eficaz, tiene que ver con la manera de interactuar, de preguntar o plantear. Esto tiene que ver con el concepto conocido como "Prompts". Por ende, cuanto más uno piensa la manera que hace el prompt, menos cantidad de inteligencia artificial usa y más eficiente será. "Es tomarse un poquito de tiempo en pensar la calidad de lo que uno le pregunta", resumió

Finalmente, yendo a algo más técnico, el informático advirtió que cuando uno usa una inteligencia artificial como ChatGPT, por ejemplo, por puede elegir entre los diferentes modelos, GPT-4, GPT-3-5. Al caso, cuanto más nuevo es el modelo, generalmente más consume. "Hay que instruirse sobre cual es el modelo que mejor se adapta a mi requerimiento y que es más eficiente en ese consumo", propuso.

Si bien admitió que eso puede llevar un poco más de trabajo, también remarcó que no todas las cosas que uno hace con inteligencia artificial requieren ChatGPT 4.5, no que "capaz que una versión más reducida funciona".

Lo cierto es que la responsabilidad hacia el medio ambiente debe ser tan vital como la innovación, y solo a través de una mayor conciencia colectiva es posible hacer frente a los desafíos que plantea el uso intensivo de la inteligencia artificial.

El costo energético de las palabras

Cada respuesta de 100 palabras también implica un consumo promedio de 0,14 kilovatios-hora (kWh), suficiente para alimentar 14 bombillas LED durante una hora. Multiplicado por millones de usuarios, el impacto es abrumador. Si solo el diez por ciento de los trabajadores estadounidenses usara esta tecnología semanalmente, el gasto anual de electricidad equivaldría al consumo energético de todos los hogares de Washington, D.C., de más de 600.000 habitantes, durante 20 días.

Un estudio de 2023 realizado por la Universidad de Colorado Riverside y la Universidad de Texas mostró que ChatGPT (basado en GPT-3) necesitaba "beber" una botella de 500 ml de agua para mantener una conversación de entre 20 y 50 preguntas.

Aunque esta cantidad parece pequeña, el impacto es considerable cuando se considera que ChatGPT tiene 180.5 millones de usuarios activos mensuales, según Yahoo Finance.

Ante esta creciente preocupación, las empresas están explorando alternativas para reducir el impacto de su consumo hídrico.

Algunas estrategias incluyen el uso de sistemas de enfriamiento por aire, la reubicación de centros de datos en regiones con climas fríos o el desarrollo de tecnologías de refrigeración más eficientes.

El futuro de la inteligencia artificial no solo depende del poder computacional y el consumo energético, sino también de la capacidad de las empresas para gestionar de manera sostenible sus recursos hídricos. A medida que la lA continúa expandiéndose, la conversación sobre su impacto ambiental debe incluir el agua como un elemento clave en la ecuación.

Qué debe tener un prompt

Los prompts son las solicitudes que el usuario hace a la inteligencia artificial, entonces, cuanta más precisión se exprese a la hora de hacer la demanda, mejor será el resultado que proporcione la lA y, a su vez, como explicó Esteban Saravia, el consumo energético que genere. Entonces, qué debe tener un buen prompt:

Claridad: el punto clave, ser claro en la petición que mandas para evitar que el contenido generado por lA se vaya por las ramas.

Contexto: ofrecerle un contexto a la inteligencia artificial es clave para conseguir el mejor resultado y sea coherente con tu petición.

Específico: para evitar cualquier confusión por parte de la IA, es importante que especifiques todo lo que puedas en tu mensaje. Por ejemplo: no es lo mismo solicitar "un texto sobre la importancia de los seguidores", que "un texto sobre la importancia de los seguidores en TikTok".

Por Ivonne Guevara, diario El ECO.

COMPARTE TU OPINION | DEJANOS UN COMENTARIO

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.

Subscribite para recibir todas nuestras novedades

data fiscal  © 2025 | Cluster Tecnologico Tandil |