Si todas las búsquedas en Google utilizaran una inteligencia artificial (IA) similar a ChatGPT, podrían consumir tanta electricidad anualmente como el país de Irlanda. ¿Por qué? La incorporación de la IA generativa a la búsqueda de Google aumenta su consumo de energía más de diez veces, según un nuevo análisis.
Un publicado en la revista Joule describe una imagen de lo que podría ser el impacto ambiental de la IA a medida que permea todos los rincones de la cultura pop y la vida laboral. La IA generativa requiere servidores potentes, y la preocupación es que toda esa potencia informática pueda hacer que el consumo de energía y la huella de carbono de los centros de datos se disparen.
El nuevo análisis fue escrito por Alex de Vries, un investigador que ha llamado la atención sobre la contaminación derivada de la minería de criptomonedas con su sitio web Digiconomist. A medida que centra su atención en la inteligencia artificial, dice que aún es demasiado pronto para calcular cuánta de la contaminación que calienta el planeta podría estar asociada con nuevas herramientas como ChatGPT y aplicaciones similares impulsadas por IA. Pero vale la pena prestar atención ahora, dice, para evitar emisiones descontroladas.
“Una conclusión clave del artículo es este llamado a la acción para que las personas sean conscientes de para qué van a usar la IA”, dijo De Vries a The Verge. “Esto no es específico de la IA. Incluso con blockchain, tenemos una fase similar en la que todo el mundo vio el blockchain como una cura milagrosa… Si vas a gastar una gran cantidad de recursos y configurar estos modelos realmente grandes y probarlos durante algún tiempo, eso va a ser un gran desperdicio potencial de energía”.
Las demandas energéticas de la inteligencia artificial
La inteligencia artificial generativa ya representó entre el 10 y el 15 por ciento del consumo de electricidad de Google en 2021. Y las ambiciones de IA de la compañía han crecido mucho desde entonces. La semana pasada, Google incluso mostró nuevas herramientas impulsadas por inteligencia artificial para que los responsables políticos reduzcan las emisiones del tubo de escape y preparen a las comunidades para desastres relacionados con el cambio climático, como inundaciones e incendios forestales.
“Ciertamente, la IA se encuentra en un punto de inflexión en este momento. Y predecir el crecimiento futuro del uso de energía y las emisiones de la computación de IA en nuestros centros de datos es un desafío. Pero si nos fijamos históricamente en la investigación y también en nuestra propia experiencia, es que la demanda de computación de IA ha aumentado mucho más lentamente que la potencia necesaria para ello”, dijo la directora de sostenibilidad de Google, Kate Brandt, en una conferencia de prensa la semana pasada.
“La energía necesaria para alimentar esta tecnología está aumentando a un ritmo mucho más lento de lo que muchos pronósticos han predicho”, comentó por su parte Corina Standiford, portavoz de Google, en un correo electrónico a The Verge. “Hemos utilizado prácticas probadas para reducir la huella de carbono de las cargas de trabajo por grandes márgenes, lo que ayuda a reducir la energía de entrenar un modelo hasta 100 veces y las emisiones hasta mil veces. Planeamos continuar aplicando estas prácticas probadas y seguir desarrollando nuevas formas de hacer que la computación de inteligencia artificial sea más eficiente”.
De Vries escribe que el peor de los casos es que la Búsqueda de Google algún día use tanta electricidad como Irlanda gracias a la IA. Se basa en la suposición de que Google desembolsaría decenas de miles de millones de dólares por 512.821 de los servidores A100 HGX de Nvidia que necesita, algo para lo cual esta última compañía ahora mismo no tiene capacidad de producción.
El documento incluye un escenario un poco más realista que calcula el consumo potencial de energía de los 100.000 servidores de IA que se espera que Nvidia entregue este año. Al funcionar a plena capacidad, esos servidores pueden consumir entre 5,7 y 8,9 TWh de electricidad al año. Eso es “casi insignificante” en comparación con el uso histórico estimado anual de electricidad de los centros de datos de 205 TWh, asegura De Vries.
Aun así, ese uso de electricidad podría crecer considerablemente si la popularidad de la inteligencia artificial generativa continúa disparándose y las restricciones de las cadenas de suministros se relajan, augura De Vries. Para 2027, si Nvidia envía 1,5 millones de servidores para inteligencia artificial, eso consumiría entre 85,4 y 134,0 TWh de electricidad al año. Eso rivaliza con el consumo de energía de Bitcoin en la actualidad.