banner
Hogar / Noticias / A medida que crece la industria de la IA, ¿qué consecuencias tendrá para el medio ambiente?
Noticias

A medida que crece la industria de la IA, ¿qué consecuencias tendrá para el medio ambiente?

Jun 12, 2023Jun 12, 2023

Las empresas tecnológicas mantienen en secreto la cantidad de energía y agua que se necesita para entrenar sus complejos programas y modelos.

Una pregunta que ChatGPT no puede responder del todo: ¿cuánta energía consumes?

"Como modelo de lenguaje de IA, no tengo presencia física ni consumo energía directamente", dirá, o: "El consumo de energía asociado con mis operaciones está relacionado principalmente con los servidores y la infraestructura utilizados para alojar y ejecutar el modelo."

Bard de Google es aún más audaz. "Mi huella de carbono es cero", afirma. Preguntado por la energía que se consume en su creación y formación, responde: "no es de conocimiento público".

Los programas de IA pueden parecer incorpóreos. Pero están alimentados por redes de servidores en centros de datos de todo el mundo, que requieren grandes cantidades de energía para funcionar y grandes volúmenes de agua para mantenerse frescos.

Debido a que los programas de IA son tan complejos, requieren más energía que otras formas de computación. Pero el problema es que es increíblemente difícil precisar exactamente cuánto.

Mientras compiten para construir modelos de IA cada vez más sofisticados, empresas como OpenAI, que creó ChatGPT, Google y Microsoft no revelarán cuánta electricidad y agua se necesita para entrenar y ejecutar sus modelos de IA, qué fuentes de energía alimentan sus centros de datos. , o incluso dónde se encuentran algunos de sus centros de datos.

Meta, la empresa matriz de Facebook, por ejemplo, reveló el año pasado que estaba construyendo lo que creía que era la supercomputadora más rápida del mundo, llamada AI Research SuperCluster (RSC). Pero no revelaría dónde estaba ubicada la supercomputadora o cómo estaba siendo alimentada.

Ahora, a medida que la industria de la tecnología se apresura a incorporar la IA generativa en prácticamente todo, desde el correo electrónico y la búsqueda hasta las aplicaciones de entrega de alimentos y los servicios de salud mental, los expertos e investigadores de la industria advierten que el crecimiento descontrolado de la tecnología podría tener un costo ambiental significativo.

"Este uso exponencial de la IA trae consigo la necesidad de más y más energía", dijo Sasha Luccioni, líder climática de la empresa de IA Hugging Face. "Y, sin embargo, estamos viendo este cambio de personas que usan modelos generativos de IA solo porque sienten que deberían hacerlo, sin tener en cuenta la sostenibilidad".

Luccioni es uno de los pocos investigadores que han tratado de evaluar las emisiones generadas en la creación de modelos específicos de IA.

En un trabajo de investigación que aún no ha sido revisado por pares, ella y sus coautores contaron la cantidad de energía utilizada para entrenar el propio modelo de lenguaje grande de Hugging Face, Bloom, en una supercomputadora; la energía utilizada para fabricar el hardware de la supercomputadora y mantener su infraestructura; y la electricidad utilizada para ejecutar el programa una vez que se lanzó. Descubrieron que generaba unas 50 toneladas métricas de emisiones de dióxido de carbono, el equivalente a unos 60 vuelos entre Londres y Nueva York.

La huella energética de Bloom es menor que la de otros programas de IA generativa, estiman Luccioni y su equipo, ya que las supercomputadoras de Bloom funcionan con energía nuclear, que no produce emisiones de carbono. Por el contrario, los datos limitados disponibles públicamente sugieren que se produjeron alrededor de 500 toneladas métricas de CO2 solo en el entrenamiento del modelo GPT3 de ChatGPT, el equivalente a más de un millón de millas recorridas por automóviles de gasolina promedio, anotaron los investigadores.

"Para el último modelo de ChatGPT, GPT4, [OpenAI] no ha dicho nada sobre cuánto tiempo se entrenó, dónde se entrenó ni nada sobre los datos que están usando", dijo Luccioni. "Entonces, esencialmente, significa que es imposible estimar las emisiones".

Mientras tanto, los modelos de IA más nuevos son cada vez más grandes y consumen más energía. Los modelos más grandes requieren el uso de unidades de procesamiento de gráficos (GPU) cada vez más potentes y tardan más en entrenarse, lo que consume más recursos y energía, dijo Luccioni.

Aún más confuso es la cantidad de agua consumida en la creación y uso de varios modelos de IA. Los centros de datos utilizan agua en los sistemas de refrigeración por evaporación para evitar que los equipos se sobrecalienten. Un estudio no revisado por pares, dirigido por investigadores de UC Riverside, estima que entrenar GPT3 en los centros de datos de última generación de Microsoft en EE. UU. podría haber consumido potencialmente 700.000 litros (184.920,45 galones) de agua dulce.

En ausencia de datos públicos precisos, los investigadores tuvieron que asumir la "efectividad del uso del agua", o la proporción de energía que usa un centro de datos y el agua utilizada para mantenerlo refrigerado y en funcionamiento, según el promedio informado por Microsoft.

La cantidad real de litros utilizados podría variar significativamente en función de dónde y cuándo se entrenó exactamente el GPT-3: en el abrasador Arizona, se necesitaría mucha agua para evitar que los servidores se sobrecalienten, mientras que en Wyoming, un centro podría usar menos agua. El diseño de los centros de datos específicos también podría afectar enormemente a los números. En lugar de usar sistemas de enfriamiento por evaporación que consumen mucha agua, un centro podría usar aire acondicionado tradicional, que usa menos agua, pero más electricidad.

Google se convirtió en el primer gigante tecnológico en publicitar su uso de agua en todo el mundo, pero proporcionó cifras promedio que ocultaron detalles importantes sobre los impactos locales de sus centros de datos. Después de una prolongada batalla legal con Oregonian, la ciudad de Dalles, Oregon, publicó datos que muestran que los centros de datos de Google utilizaron una cuarta parte del suministro de agua de la ciudad.

Debido a que la efectividad del uso del agua de un proyecto de IA podría usarse para adivinar su capacidad de cómputo, las empresas quieren mantener en secreto su uso del agua, dijo Shaolei Ren, profesor asociado de ingeniería eléctrica e informática en UC Riverside. "Quieren darnos la menor información posible", dijo.

En general, las empresas tienden a construir centros de datos donde la energía es barata. A medida que las grandes empresas tecnológicas como Google y Microsoft se esfuerzan por alcanzar un objetivo de emisiones netas cero, pueden estar especialmente motivadas para construir en áreas donde abunda la energía solar o eólica, como Arizona, pero el agua escasea.

Meta y OpenAI no respondieron a las solicitudes de comentarios de The Guardian. Google y Microsoft se negaron a proporcionar una respuesta oficial.

Cuando los altos ejecutivos de las principales empresas de IA pidieron una regulación para prevenir el "riesgo existencial" que plantea la IA, se generó especulación sobre las amenazas que la superinteligencia representaba para la sociedad. Pero los investigadores advirtieron que uno de los riesgos más inmediatos y pertinentes era el ambiental.

Si las empresas son más transparentes sobre los recursos naturales utilizados y las emisiones de carbono liberadas en la creación y el uso de modelos de IA, podrían ayudar a abrir debates sobre cuándo y cómo utilizar estratégicamente la IA generativa, dijo Luccioni. Puede valer la pena el costo ambiental de usar tecnología de IA generativa en el tratamiento del cáncer, pero usarla en otros casos es un desperdicio.

Y, sin embargo, la IA generativa se ha convertido en una fijación. "Existe la idea de que su empresa está pasada de moda si no la está usando", dijo Luccioni.

Hace un par de meses, OpenAI ofreció acceso pago para incorporar ChatGPT en sus aplicaciones, y empresas como Instacart, la empresa de entrega de comestibles en línea, están utilizando la función para personalizar listas de comestibles y recomendaciones de ingredientes. Y el mes pasado, Google anunció que incorporaría la IA generativa en Gmail y la búsqueda, utilizando tecnología exponencialmente más compleja y que consume mucha energía para realizar esencialmente las mismas tareas. Las empresas han sugerido el uso de herramientas similares para la detección de fraudes bancarios, modelos estadísticos de disputa que ya son bastante buenos para la detección.

"Es frustrante porque en realidad hay tantos enfoques y métodos de IA eficientes y de bajo impacto que la gente ha desarrollado a lo largo de los años, pero la gente quiere usar la IA generativa para todo", dijo Luccioni. "Es como usar un microscopio para clavar un clavo; podría funcionar, pero no es realmente para lo que está diseñada esta herramienta".