La inteligencia artificial se esfuerza por reducir sus necesidades de energía furiosa – El informante

Nueva York. Miércoles, 16. Julio de 2025. Gracias a las nuevas técnicas de refrigerante, chips fuertes y progreso de la programación, el sector de inteligencia artificial (IA) intenta limitar su consumo de energía en el contexto del crecimiento furioso.

La infraestructura de IA se basa en centros de datos, de acuerdo con los pronósticos de la Agencia Internacional de Energía (es decir), representan el 3 por ciento de las necesidades de electricidad global hasta 2030. Años, el doble que la participación actual.

El presidente de los Estados Unidos, Donald Trump, anunció acuerdos para el desarrollo de infraestructura y producción de energía por valor de $ 92 mil millones destinados a satisfacer la creciente demanda de inteligencia artificial.

Trump asistió a la Cumbre de Energía de Pensilvania en la Universidad Carnegie Mellon, y una gran parte de su mensaje se centró en la derrota de China en la carrera global de IA.

«Las obligaciones de hoy aseguran que el futuro (…) aquí en Pensilvania y aquí en Pittsburgh, y debo decir que aquí en los Estados Unidos», dijo Trump al evento.

El consultor McKinsey habla sobre «carrera» para construir suficientes centros para «tratar con la aceleración masiva en el uso de la IA», mientras advierte los tiempos de escasez.

«Hay varias formas de resolver el problema», Mosharaf Chowdhury, profesor asociado en la Universidad de Michigan.

«Una es crear múltiples fuentes de energía», la ruta en la que se mueve el peso pesado de la IA y; El segundo es «reducir la demanda» de la electricidad en una capacidad equivalente, explicó.

Enfriamiento de agua

Para el maestro, las «soluciones inteligentes» se pueden encontrar en todos los niveles y cadenas, desde equipos físicos hasta algoritmos.

Según Gareth Williams, un consultor de ARUP, la energía necesaria para mantener el centro de datos hoy representa el 10 por ciento de lo que los servidores se consumen en relación con el 100 por ciento hace 20 años.

Esta reducción se puede atribuir al uso generalizado de enfriamiento líquido o de agua en lugar de ventilación convencional, circulando líquidos directamente dentro del servidor.

«Todo lo bueno quiere usar el enfriamiento de agua», se considera Williams, porque «en un punto en el que no tienes la opción de hacerlo».

Los nuevos chips Nvidia multiplicados por más de 100 consumo de energía del servidor del servidor en comparación con hace 20 años.

Como consecuencia, el líquido puede alcanzar temperaturas mucho más altas que antes, dijo Williams, pero paradójicamente facilita su enfriamiento en contacto con el aire externo, dada la temperatura.

A principios de julio, Amazon presentó un nuevo sistema de enfriamiento de líquidos llamado IRHX, que se puede instalar en el centro de datos sin integración en la arquitectura inicial.

El segundo progreso es que los centros de datos están equipados con sensores que pueden usarse para controlar la temperatura del centro no entero no pequeño, pero «superficies muy pequeñas» y «optimizan el consumo de agua y electricidad», según McKinsey.

El Laboratorio Mosharaf Chowdhury ha desarrollado algoritmos para evaluar con precisión la cantidad de electricidad que cada chip debe hacerse, con posibles ahorros del 20 al 30 por ciento.

Además, se han realizado progresos en los mismos microprocesadores.

«Con cada generación de chips y diseños de GPU (unidades de procesamiento gráfico) en semiconductores, comienza a ser más eficiente en términos de energía», recordó Sachdeva.

El equipo dirigido por Yi Ding, profesor en la Universidad de Purdue, en Indiana, ha demostrado que es posible extender la vida de las chips, GPU o tarjetas gráficas más poderosas, «sin sacrificar», dijo AFP.

En enero, Depseek presentó su modelo generativo R1, cuya actuación es similar a los principales actores estadounidenses, aunque se desarrolla con GPU menos potentes.

Los ingenieros de la compañía china lo han logrado programando la tarjeta gráfica con mayor precisión. También se saltaron la fase de entrenamiento en el modelo, que anteriormente se consideraba necesaria.

Sin embargo, a pesar de este progreso tecnológico, «no hay forma de reducir el consumo de energía debido a algo llamado paradoja de Jevons», dijo Ding.

Compartir :