La rápida evolución de la inteligencia artificial (IA) exige a las compañías una infraestructura de mayor poder.
Por ejemplo, OpenAI firmó un acuerdo con Nvidia para contar con procesadores que le permitan entrenar y ejecutar sus últimos modelos.
El acuerdo inicial, firmado en setiembre pasado, establecía que Nvidia construiría al menos 10 gigavatios de potencia de procesamiento, una inversión de $100.000 millones para ayudarle a financiar el proyecto y el arrendamiento de los chips.
El acuerdo iba viento en popa, hasta que este 30 de enero se anunció que está siendo revisado tras las dudas de algunos ejecutivos del fabricante de microprocesadores.
La mayor capacidad de los servidores para el funcionamiento de los grandes modelos de lenguajes (LLM, por sus siglas en inglés) de los bots como ChatGPT, Gemini, Copilot y Claude, no es la única urgencia para la industria.
Se requieren más centros de datos y mayor suministro energético. Incluso las grandes firmas como Google, Meta, Amazon y Microsoft anunciaron a principios de enero sus planes separados para generación eléctrica ante la lentitud de la oferta.
La IA está generando una notable disrupción en la infraestructura física de los grandes centros de datos que alojan los LLM y de los medianos o pequeños que almacenan datos, aplicaciones y servicios corporativos que integran la IA. En ambos segmentos, aumenta la demanda de potencia energética y de densidad de rack (la estructura metálica que aloja y organiza servidores). Es más que un simple ajuste.
“La industria de centros de datos se prepara para uno de los puntos de inflexión más relevantes”, dijo José Alberto Llavot, gerente regional de preventa y desarrollo de negocios en Schneider Electric. “El siguiente paso es el auge de las fábricas de IA, entendidas como centros de datos que producen inteligencia más que sólo procesar información”.

El incremento de adopción de la IA es un hecho. McKinsey reportó que de 2023 a 2025 aumentó del 55% al 78% la porción de empresas a nivel global que usan esa tecnología en al menos una función de negocio. En este 2026 se alcanzará al 80%, según las proyecciones de la misma McKinsey y de otras firmas como Forrester, IDC, y Gartner.
Asimismo, el gasto en tecnología de IA aumentaría desde los $480.000 millones actuales hasta los $2 billones en 2035, lo que incluye la adopción corporativa, infraestructura y consumo.
La industria enfrenta la urgencia de más centros de datos. En el segundo semestre del 2025 se contabilizaban 20 proyectos en EE. UU. que representaban una inversión combinada de casi $100 000 millones, según Data Center Watch.
Tal expansión aumenta el consumo energético. Se espera que se alcancen los 90 TWh anuales solo por IA en 2026, 10 veces más respecto a 2022. Pero se enfrenta la escasez de suministro: 40% de los actuales centros de datos IA tendrían restricciones energéticas para 2027 debido a problemas de suministro local, en particular por sobrecargas en subestaciones y transformadores.
Cambios drásticos
Con tales volúmenes y crecimientos en la adopción de la IA y en la demanda de energía se deberá hacer frente a diversos retos.
Evan Sparks, director de productos de IA en Hewlett Packard Enterprise, recordó que las compañías tecnológicas están obligadas a ofrecer cómputo sostenible de extremo a extremo. Eso implica cambios operativos en los centros de datos.
Hay dos situaciones a nivel de energía en los centros de datos que deben atenderse.
La primera es el salto en las densidades de carga desde 3-5 kilovatios (kW) por rack hasta más de 70 kW o los 100 kW en el corto plazo.
La segunda es que, en lugar de picos específicos de consumo en cada equipo o grupos de equipos, con la IA los mayores aumentos de consumo energético pueden alcanzarse en múltiples servidores al mismo tiempo.
El problema es que la infraestructura eléctrica de la mayoría de los centros de datos no fue diseñada para manejar estas cargas. De hecho, el aumento de la densidad de carga saturaría las rutas de alimentación de energía tradicionales y generaría una densidad térmica tan alta que el enfriamiento por aire resulta incapaz para extraer el calor.
Para contrarrestarlo, los servidores de IA podrían utilizar refrigeración líquida, que va directamente al chip. Además, el agua absorbe hasta 4.000 veces más calor que el aire.
La implementación de la refrigeración líquida y otros cambios necesarios en los centros de datos exigen una reingeniería de las salas de cómputo, incluyendo el rediseño eléctrico, mecánico (tuberías de agua) y arquitectónico.
Esto se debe complementar con soluciones para limitar las fallas de corriente y el riesgo de que se produzca la liberación explosiva de energía. Asimismo, deben implementarse sistemas de almacenamiento de energía (baterías de alto ciclo o supercondensadores) para que actúen como “reductores de picos” en los momentos de sobrecarga.
La adaptación de la infraestructura eléctrica, indica Schneider, es una inversión manejable de hasta 2,5% (del costo total de la tecnología de IA) para soportar los picos de carga y de hasta 15% para aumentar la capacidad del sistema de alimentación.
“No todo será construcción nueva”, afirmó Llavot.
Las firmas más importantes optan por levantar grandes proyectos. Las compañías de centros de datos de tamaño medio elegirían modernizar los sitios existentes con racks más grandes, equipos de mayor capacidad y módulos de enfriamiento líquido acoplables.
En ambos casos deberán atender las exigencias ambientales.
Para el abastecimiento eléctrico se disponen de diversas opciones: eólica, solar, geotermia, turbinas de gas natural con captura de carbono, generadores de respaldo con aceite vegetal hidrotratado (HVO, un biocombustible avanzado) y almacenamiento con baterías.
De hecho, se espera que las energías renovables (que aportan 27% de la electricidad consumida por centros de datos en la actualidad) crecerán 22% anuales hasta 2030, casi la mitad del crecimiento previsto de la demanda eléctrica del sector.
