
¿Puede la AI de Energy-Bhukh ayudar a reducir nuestro uso de energía?
hace 3 meses

Crédito: Pexle a Brett Things
Un descubrimiento estándar tiene 10 veces más potencia para que ChatGPT responda a una señal en comparación con Google. Sin embargo, los investigadores están luchando por comprender las implicaciones energéticas de la inteligencia artificial genérica para avanzar y avanzar.
Algunas personas se dan cuenta de que la huella de carbono de la tecnología digital es igual a la industria aeroespacial, y representa entre el 2% al 4% de las emisiones globales de carbono. Y esta huella digital de carbono está creciendo rápidamente. Cuando se trata del uso de electricidad, alrededor de 11,000 centros de datos en la operación consumen la misma energía hoy que Francia en todo el país en 2022 o aproximadamente 460 TWH. ¿Se aumentarán esas cifras adoptando ampliamente la IA generativa?
La nueva tecnología afectará claramente la cantidad de energía consumida en todo el mundo, pero es difícil determinar cómo determinar. "Necesitamos saber el costo total del sistema de IA generativo sobre TI sostenible en Sostenible en TI en Sostenible", dice que pueden usarlos de manera eficiente. "
Él cree que debemos considerar todo el ciclo de vida de la tecnología genérica de IA, generalmente sobre todo el ciclo de vida de la tecnología genérica de IA, para la extracción de minerales y el ensamblaje de componentes, lo que afecta los efectos de los desechos electrónicos de energía, que a menudo se tambalean ilegalmente. Desde este punto de vista, los impactos ambientales de la IA generativa están más allá del consumo de energía y agua de los centros de datos solo.
Costo de capacitación
Por ahora, la mayoría de los datos disponibles sobre el uso de electricidad de tecnología digital solo pertenecen a centros de datos. Según la Agencia Internacional de Energía (IEA), estos centros (a excepción de las redes de datos y la minería de criptomonedas) consumieron entre 240 TWH y 340 TWH Power, o entre 1% y 1.3% del total global. A pesar de que el número de centros aumenta en un 4% por año, pero su poder general no cambia mucho entre 2010 y 2020, gracias a mejorar la energía y el sude.
La IA generativa se adoptará a gran escala, lo que definitivamente cambiará. La tecnología AI generativa se basa en el modelo de lenguaje grande (LLM) que utiliza la potencia de dos maneras. Primero, mientras están siendo entrenados, un paso que implica ejecutar terabytes de datos a través de algoritmos para que aprendan a predecir palabras y oraciones en un contexto dado. Hasta hace algún tiempo, fue el paso más intensivo en energía.
En segundo lugar, mientras se procesan datos en respuesta a un signo. Ahora que LLM se está aplicando ampliamente, este es el paso más requerido de energía. Los datos recientes de Meta y Google sugieren que este paso es ahora del 60% al 70% de la potencia utilizada por el sistema de IA generativo en comparación con el 30% al 40% para la capacitación.
Chatgpt querry vs búsqueda tradicional de Google
Según la IEA, una consulta ChatGPT consume alrededor de 3 electricidad de Whee, mientras que una búsqueda tradicional de Google usa 0.3 WH. Si todos los 9 mil millones de descubrimientos de Google se activaron el CHATGPT, aumentará el requisito total de electricidad a 10 TWHH por año.
Goldman Sachs Research (GSR) estima que el contenido de energía utilizado por los centros de datos aumentará en un 160% en los próximos cinco años, y serán responsables del 3% al 4% del uso de energía global. Además, sus emisiones de carbono se duplicarán entre 2022 y 2030.
Según los datos de la IEA, la demanda total de electricidad en Europa disminuyó en tres años en una línea, pero aumentó en 2024 y debería volver a los niveles de 2021: 2,560 TWHH por año para 2026. Alrededor de este crecimiento se debió a centros de datos. GSR estima que la demanda de electricidad relacionada con la IA en los centros de datos aumentará a aproximadamente 200 TWH por año entre 2023 y 2030. Para 2028, la IA debe representar aproximadamente el 19% del consumo de datos del centro de datos.
Sin embargo, la rápida expansión de la IA genérica puede incorrecto estos pronósticos. La compañía china Deepsek ya está sacudiendo cosas: introdujo un programa de IA generativo a fines de enero que utiliza una energía más baja que sus homólogos estadounidenses para el algoritmo de capacitación y responde a las señales.
Otro factor que puede aumentar el aumento de la demanda de energía de IA es, las cantidades limitadas de recursos mineros disponibles para la producción de chips. NVIDIA actualmente domina el mercado de chips de IA con una participación de mercado del 95%. Tres millones de chips Nvidia H100 establecidos en todo el mundo usaron 13.8 Twhh Power en 2024, la misma cantidad que Guatemala. Para 2027, los chips nvidia pueden quemar entre 85 y 134 potencia TWHH. ¿Pero la compañía podrá producirlos en esa escala?
No siempre es una opción permanente
Otro factor es considerar si nuestra red de energía envejecida podrá admitir una carga adicional. Muchos de ellos, tanto a nivel nacional como local, ya están siendo empujados al límite para satisfacer la demanda actual. Y el hecho de que los centros de datos a menudo se centran geográficamente, hacen que las cosas sean más complejas. Por ejemplo, los centros de datos obtienen el 20% del consumo de energía en Irlanda y más del 25% en el estado estadounidense de Virginia. "Cree centros de datos en áreas donde el agua y el suministro de energía ya estén tensos", dice Cubero-Caston.
El costo también es un problema. Si Google pudiera procesar la AI genérica de AI, necesitaría instalar 400,000 servidores adicionales adicionales, en un precio de aproximadamente 100 mil millones de dólares, lo que reduciría su margen operativo en cero. Un paisaje inesperado.

Ganancias no utilizadas
En general, los beneficios de IA pueden ofrecer un aumento en el consumo de energía causado por la IA genérica. Aunque el algoritmo de capacitación requiere una inversión, puede pagar en términos de ahorro de energía o ganancias climáticas.
Por ejemplo, la IA puede acelerar la velocidad de innovación en el sector energético. Esto puede ayudar a los usuarios a predecir mejor y reducir su uso de energía; Permitir que las utilidades administren su red eléctrica de manera más efectiva; Mejora en la gestión de recursos; Y permite a los ingenieros ejecutar simulación y ejecutar avances en el borde principal del modelado, la economía climática, la educación y la investigación básica.
Ya sea que podamos aprovechar los beneficios de dicha innovación, dependerá de sus efectos, cómo los consumidores adoptan la nueva tecnología a gran escala y los responsables políticos redactarán leyes para controlarla y controlarla.
La próxima generación de centros de datos se está creando hoy y más energía es eficiente y permite una mayor flexibilidad para usar su capacidad. Del mismo modo, Nvidia está trabajando para mejorar el rendimiento de sus chips, reduciendo su requisito de energía.
Y no debemos olvidar la capacidad de calcular cuántica. Cuando se trata de centros de datos, la AIE calcula que el 40% de la potencia que utilizaron van a otros componentes del sistema, incluidos el enfriamiento, el 40%, el servidor en ejecución y el 20% de almacenamiento de datos y comunicación.
En EPFL, el Prof. Mario Paolon lidera la iniciativa de BITS de calefacción para crear un manifestante para probar nuevos métodos de enfriamiento. Cinco grupos de investigación y el Centro Ecoclaude han formado un equipo para la iniciativa, con el objetivo de desarrollar nuevos procesos para involucrar la recuperación de calor, la consolidación, la energía renovable y personalizar el uso del servidor.
Teniendo en cuenta el panorama general
Otro método (sin dolor y libre) para cortar el uso de energía del centro de datos es limpiar el desorden. Todos los días, las empresas en todo el mundo producen datos de 1.3 billones de gigabytes, la mayoría de los cuales terminan como datos oscuros o datos, que se recopilan y almacenan pero nunca se usan. Resaadrchers en la escuela de negocios de Lofborough estima que el 60% de los datos mantenidos hoy son datos oscuros y los almacenan. Solo emite carbono como tres millones de vuelos de Londres -Newyorke. El día de limpieza digital de este año se celebró el 15 de marzo, ¡pero no tiene que esperar hasta la primavera!
Sin embargo, Cubero-Caston nos ha advertido que tengamos en cuenta la imagen grande: "Si comenzamos a usar una tecnología de IA generativa a gran escala, a veces con LLM, como resultado, las ganancias de energía resultantes serán suficientes para lograr una disminución en las emisiones generales de carbono. Para reducir nuestro uso y aumentar nuestro uso y eficiencia".
Los efectos energéticos de la IA generativa no deben ignorarse, pero ahora solo es marginalmente marginalmente: ya está agregando un consumo de tecnología digital en general. Actualmente, los videos son responsables del 70% al 80% del tráfico de datos en todo el mundo, mientras que otros contribuyentes importantes son juegos en línea multijugador y criptomonedas. Los principales impulsores de la demanda de electricidad son el desarrollo económico, los vehículos eléctricos, el aire acondicionado y la fabricación. Y la mayor parte de esa potencia aún proviene del combustible fósil.
Citación: ¿Puede la IA de Flejes de Energía para reducir nuestro uso de energía? ,
Este documento está sujeto a derechos de autor. Además de cualquier comportamiento imparcial para el propósito de estudios o investigaciones privadas, no se puede volver a interrogarlo sin permiso por escrito. El contenido se proporciona solo para fines de información.

Deja una respuesta