Microsoft tiene tantos chips con IA que descubrieron un problema: no existe tanta electricidad para usarlos

Recientemente, durante una entrevista para el podcast de Youtube Bg2 Pod, Satya Nadella, CEO de Microsoft, reconoció que su empresa enfrenta un exceso de potencia pero un déficit de energía. Esto debido a que posee más GPU de las que puede poner a trabajar al no contar con la suficiente electricidad para ello.

Ese es mi problema hoy. No es un problema de suministro de chips; es que no tengo dónde enchufarlos“, dijo Nadella cuando el presentador, Brad Gerstner, les preguntó a él y a Sam Altman, CEO de OpenAI, si coincidían con la opinión del director ejecutivo de Nvidia, Jensen Huang, quien afirmó que no hay posibilidad de una sobreoferta de capacidad de cómputo para los próximos dos o tres años.

Cuando la inteligencia artificial se topa con el límite de la energía

Según Nadella, la expansión de centros de datos para alojar modelos de IA cada vez más potentes ha sido tan rápida que la infraestructura eléctrica no le ha podido seguir el paso. Hace apenas unos años el problema era la escasez de GPU; no obstante, una vez solucionado esto gracias a Nvidia, surgió otro cuello de botella: la energía.

Esto ha llevado a varias empresas tecnológicas, como Microsoft, Google, Amazon y hasta OpenAI, a invertir en la investigación de pequeños reactores nucleares modulares para ampliar sus fuentes de energía a medida que se construyen centros de datos más grandes. No obstante, esto representa un duro golpe para la gente común, pues el crecimiento del consumo eléctrico de los centros de datos ha traído como consecuencia el aumento en las tarifas de energía en algunas regiones de Estados Unidos.

OpenAI ha sugerido al gobierno estadounidense construir hasta 100 gigavatios de nueva capacidad eléctrica cada año. Su argumento fue que la energía debe ser considerada un activo estratégico en la carrera tecnológica contra China, país que lleva ventaja en proyectos de energía hidroeléctrica y nuclear.

El estallido de la burbuja

Por su parte, Sam Altman habló sobre la posibilidad de que un hardware de consumo más barato llegara al mercado. “Algún día, fabricaremos un dispositivo de consumo increíble que podrá ejecutar un modelo compatible con GPT-5 o GPT-6 de forma totalmente local con un consumo energético mínimo“, dijo, y confesó que se trata de un escenario difícil de imaginar. 

No obstante, consideró que con dicha tecnología también podrían venir problemas, especialmente para quienes invirtieron millones en estructuras para IA que podrían quedar obsoletas: “Si una forma de energía muy barata se pone en marcha pronto a gran escala, mucha gente se verá gravemente perjudicada por los contratos que han firmado“.

Esta idea también preocupa a algunos inversores, que temen un eventual estallido de la “burbuja de la IA” si la demanda de infraestructura no crece al ritmo esperado. Analistas como Pat Gelsinger, de Intel, han advertido que el entusiasmo podría ser insostenible a largo plazo y que un desplome afectaría no solo a las tecnológicas, sino a toda la economía global, con un impacto potencial de hasta 20 billones de dólares en valor de mercado.

Cortesía de Xataka



Dejanos un comentario: