¿Cuáles son las diferencias entre un centro de datos normal y uno para IA?

La inteligencia artificial (IA) no solo está transformando el software y los negocios; también está reescribiendo las bases físicas del cómputo. Para Sergio Rosengaus, director ejecutivo de Bleeding Edge, un AI Factory (fábrica de inteligencia artificial), como denomina a los nuevos centros de datos especializados en cómputo acelerado, no es una evolución de los data centers tradicionales, sino otra especie. 

La diferencia, dice, no se mide en porcentajes, sino en órdenes de magnitud: en consumo energético, en enfriamiento, en redes y en la manera misma en que fluye la inteligencia digital dentro de un edificio.

Te puede interesar

En un centro de datos convencional, las cargas de trabajo típicas (bases de datos, servidores web, almacenamiento) se ejecutan sobre procesadores de propósito general (CPU). Pero en los centros de datos diseñados para IA, el corazón lo ocupan las unidades de procesamiento gráfico (GPU), capaces de realizar miles de cálculos en paralelo y entrenar modelos de lenguaje o sistemas de visión artificial a escalas antes impensables.

No se trata de subir la factura eléctrica, sino de replantear toda la arquitectura energética: desde la acometida principal hasta la entrega de potencia fina a cada rack de cómputo acelerado. En la práctica, eso significa nuevas subestaciones, nuevos tableros, nuevos sistemas de respaldo y una gestión térmica completamente distinta.

Energía y enfriamiento

Cada vatio de energía extra se traduce en calor. Y cada GPU genera mucho más calor que un CPU. Por eso, los sistemas de enfriamiento en un AI Factory deben operar “muchas órdenes de magnitud por encima” de los de un centro tradicional, de acuerdo con Rosengaus. En el pasado bastaba con aire frío circulando por pasillos y rejillas; ahora se requieren soluciones líquidas, inmersión directa y diseños termodinámicos a medida. El directivo advierte que intentar adaptar un centro existente para cargas de IA es un error frecuente.

“No puedes hacer retrofits significativos”, dijo.

La densidad energética, el flujo térmico y las necesidades de conectividad de un clúster de GPUs no pueden sostenerse sobre la infraestructura pensada para CPUs. De ahí que los nuevos proyectos se diseñen desde cero (greenfield), como fábricas digitales que producen un nuevo bien..

Te puede interesar

De la nube al borde

Los AI Factories no solo se diferencian por su potencia o su ingeniería, sino también por la lógica de operación. Mientras un centro de datos tradicional busca eficiencia en el almacenamiento y la conectividad a gran escala, un centro para IA se divide entre dos mundos: el entrenamiento y la inferencia.

El entrenamiento de modelos, cuando una red neuronal aprende durante semanas o meses, puede realizarse lejos del usuario final. Lo importante es la capacidad de procesamiento y la estabilidad térmica. La inferencia, el momento en que el modelo responde preguntas o toma decisiones, necesita proximidad.

“Ahí manda la latencia”, dijo Rosengaus.

Las empresas que usan IA para operaciones críticas, como un sistema maestro de facturación o análisis de riesgo financiero, no pueden depender de respuestas a cientos o miles de kilómetros de distancia.

Esa exigencia de inmediatez está provocando que los operadores coloquen nodos de inferencia más cerca del usuario o del cliente corporativo, incluso dentro de ciudades clave. En la práctica, México empieza a ver cómo surgen centros especializados en IA que complementan a los data centers tradicionales, no los reemplazan.

“Habrá quienes adopten la IA rápido, otros a mediano plazo y otros muy lento”, prevé Rosengaus, pero todos necesitarán infraestructura que permita escalar cuando llegue su momento.

Problemas de red

La otra diferencia está en la red. Los flujos de información dejan de ser simétricos. En un AI Factory, la red debe mover enormes volúmenes de datos de entrenamiento hacia el clúster de GPUs y luego devolver tokens de inteligencia, las respuestas generadas por los modelos, hacia las aplicaciones. Esta dinámica exige interconexiones de alta capacidad, baja latencia y redundancia total.

Bleeding Edge, la compañía que dirige Rosengaus, asegura haber puesto en operación el primer AI Factory del país, diseñado específicamente para alojar clústeres de GPUs y ofrecer cómputo acelerado a nubes y organizaciones que desean entrenar modelos con datos propios. Su proyecto, reconocido como “data center del año” en la categoría AI Factory, busca colocar a México en el mapa de la infraestructura avanzada de inteligencia artificial.

La diferencia entre un centro de datos normal y uno para IA no es de tamaño, sino de propósito. El primero guarda y distribuye información; el segundo la transforma en conocimiento en tiempo real. Uno responde al pasado digital de la nube; el otro anticipa el futuro industrial de la inteligencia artificial.

[email protected]

Cortesía de El Economista



Dejanos un comentario: