

Francisco Porras Álvarez
Francisco Porras Álvarez. Unidad de Negocio de Datacenters en MERLIN Properties.
Las altas demandas de cómputo necesitan nuevos centros de datos
La revolución de la IA
La Inteligencia Artificial (IA) ha dejado de ser una promesa futurista para convertirse en el motor de innovación más disruptivo del siglo XXI. Desde modelos de lenguaje como GPT-4 o Stable Diffusion, hasta sistemas de visión computarizada y sistemas de aprendizaje profundo, la IA requiere una capacidad de procesamiento sin precedentes.
Este apetito insaciable por recursos computacionales ha obligado a replantear la arquitectura, diseño y operación de los centros de datos, tradicionalmente orientados a cargas de trabajo estables y predecibles.
Actualmente, nos enfrentamos a un cambio de paradigma: construir infraestructuras que soporten no sólo mayor capacidad, sino también densidades de potencia extremas, eficiencia térmica y sostenibilidad, y que además tengan la capacidad de adaptarse a las evoluciones tecnológicas que se van sucediendo. Esto supone un reto adicional al ya complejo desarrollo de estas infraestructuras.
La IA no solo está transformando industrias, sino también la infraestructura que la hace posible. Los centros de datos ya no son meros almacenes de servidores: son el corazón de una revolución tecnológica y de la industria 4.0, que exige innovación en materiales, ingeniería térmica y sostenibilidad. Este cambio de paradigma no es opcional, porque es la única vía para sostener un futuro donde la IA siga creciendo de manera sostenible.
La IA ha desencadenado una revolución en el diseño y la construcción de centros de datos
Por todo ello, la IA ha desencadenado una revolución en el diseño y la construcción de centros de datos. Los centros de datos de alta densidad, optimizados para el cómputo paralelo y el procesamiento de datos masivos, son el nuevo estándar. A medida que la IA continúa avanzando, los centros de datos que la sustentan también lo harán, abriendo un abanico de posibilidades para el futuro de la tecnología.
Los desafíos
A. Crece la demanda computacional
Complejidad de los modelos
Los modelos actuales (por ejemplo, GPT-4 y Gemini, o sistemas de visión como DALL-E) tienen arquitecturas con miles de millones, e incluso billones, de parámetros. Cada entrenamiento requiere cálculos matriciales masivos y ajustes iterativos, lo que consume recursos de procesamiento y memoria en escalas antes impensables.
Volumen de Datos
El entrenamiento de IA depende de conjuntos de datos masivos (terabytes o petabytes). Procesar y analizar estos datos implica operaciones paralelas intensivas, especialmente en tareas como el ajuste de pesos en redes neuronales.
Iteraciones y aprendizaje por refuerzo
Algunos modelos, como los usados en robótica o juegos (por ejemplo, en AlphaGo), requieren millones de simulaciones y ciclos de retroalimentación, multiplicando la carga computacional.
B. Salto Cuántico en Procesamiento
Aceleradores de hardware especializados
GPU (NVIDIA A100/H100), TPU (Google) y FPGA. Las cargas de trabajo de la IA, especialmente el entrenamiento de modelos profundos, dependen de operaciones matriciales masivamente paralelas. Mientras que un servidor tradicional utiliza CPU (procesadores de uso general), la IA exige GPU (unidades de procesamiento gráfico) y TPU (unidades de procesamiento tensorial), diseñadas para manejar miles de hilos simultáneamente.
Arquitecturas de alta densidad
Racks que soportan hasta 50kW (frente a los 10kW tradicionales) con sistemas de refrigeración por aire y 150kW con sistemas de refrigeración líquida. Esto implica un estrés térmico y eléctrico radicalmente distinto, forzando a rediseñar los centros de datos por el peso que tienen que soportar por metro cuadrado, distribución de energía y requisitos de refrigeración.
Interconexiones ultrarrápidas
La comunicación rápida entre los nodos de procesamiento es crucial para el rendimiento de los modelos de IA. Las interconexiones de alta velocidad, como NVLink de NVIDIA o Infiniband de Mellanox, facilitan un intercambio de datos eficiente y de ultra baja latencia que permite reducir los cuellos de botella para que todas las GPU de los nodos puedan trabajar al unísono sobre una misma tarea. Por ejemplo, para entrenar un modelo (paralelización masiva) se necesitan este tipo de conexiones solo antes vistas en entornos muy de nicho de supercomputación (HPC).
La evolución
A. Refrigeración Líquida: del aire al agua (y más allá)
La refrigeración líquida ha pasado de ser una alternativa exótica a una necesidad con técnicas como:
- Inmersión total: sumergir servidores en líquidos dieléctricos no conductores.
- Refrigeración directa al chip: tubos capilares que llevan líquido frío directamente a procesadores y GPU.
B. Densificación inteligente
La densidad es el nuevo mantra. Mientras los centros tradicionales priorizaban la expansión horizontal, los diseñados para IA se construyen ‘hacia arriba’ y con espacios reducidos:
- Racks de alta potencia: diseños que permiten concentrar hasta 150 kW en un solo rack.
- Arquitecturas modulares: centros de datos prefabricados y modulares diseñados en origen para ser equipados y poder crecer en el futuro. Diseño de grandes campus de centros de datos para entrenamiento de grandes modelos de IA (llamados IA factories).
C. Energía sostenible
La IA no sólo consume más energía, sino que también enfrenta presiones regulatorias y sociales para reducir su huella de carbono.
- Energías renovables: compañías como Google y Meta compensan el 100% de su consumo con energía eólica/solar.
- Recuperación de calor: reutilizar el calor residual para otros usos como pudieran ser redes de calor urbanas.
- Disminución del PUE: El Power Usage Effectiveness (en español ‘Efectividad en el Uso de la Energía’) es un indicador clave de eficiencia energética utilizado en los centros de datos. Mide cuánta energía consume en comparación con la energía que realmente utilizan los equipos informáticos (servidores, almacenamiento, redes, etc.).
D. Gestión dinámica con IA
- Algoritmos como Google DeepMind son capaces de redistribuir automáticamente cargas entre distintos centros de datos según disponibilidad de energía verde o según restricciones en la red eléctrica.
El pasado
Los centros de datos construidos hace una década no estaban preparados para este escenario. Sus limitaciones incluyen:
Refrigeración por aire insuficiente
El aire forzado no puede disipar eficientemente el calor generado por racks de alta densidad.
Ineficiencia energética
Los sistemas de enfriamiento tradicionales consumen hasta el 40% de la energía total.
Consumo de agua
Los sistemas de enfriamiento tradicionales evaporan una gran cantidad de agua, por lo que encuentran muchas limitaciones para encontrar un emplazamiento en zonas donde hay escasez de agua y especialmente cerca de las áreas urbanas.
Espacio físico limitado
La escalabilidad horizontal (más servidores) choca con costos y huella ambiental.
El futuro
Los próximos años traerán avances aún más radicales con el diseño de centros de Datos autónomos y cuánticos.
Automatización con IA
Sistemas de gestión predictiva para optimizar energía y refrigeración.
Integración con computación cuántica
Centros híbridos (clásicos + cuánticos) para resolver problemas intratables hoy.
Edge Computing para IA
Microcentros de datos cerca del usuario final, reduciendo latencia en aplicaciones como vehículos autónomos.