- Los microcentros de datos distribuidos convierten la electricidad no utilizada en computación de IA eficiente
- La red tiene como objetivo instalar 400.000 GPU en 1.000 sitios modulares en todo el mundo.
- La implementación de energía primero evita retrasos debido a aprobaciones de conexión a la red más lentas
La infraestructura de IA funciona en un rango estrecho que tiene poco que ver con chips y mucho con energía. Los nuevos centros de datos suelen estar listos para ser construidos, pero esperan años para obtener el permiso para conectarse a redes eléctricas ya congestionadas.
Este retraso ha creado interés en construir centros de datos donde haya electricidad disponible en lugar de ampliar la red para llegar a ellos.
La empresa francesa de infraestructura de IA Antimatter está construyendo una red de 1.000 microcentros de datos modulares en EE. UU., Europa y la región del CCG junto a fuentes de energía directas.
El artículo continúa a continuación.
Capacidad de 1GW asegurada mediante conexión a la red
Estas pequeñas instalaciones utilizan electricidad que las conexiones de red existentes no pueden transportar a los clientes, ejecutando cargas de trabajo de IA en el sitio en lugar de esperar años a que se construyan nuevas líneas de transmisión.
Cada unidad cabe en módulos estilo contenedor que contienen hasta 400 GPU y se pueden implementar en aproximadamente cinco meses.
La construcción tradicional a hiperescala suele tardar más de dos años antes de alcanzar un estado de preparación similar.
Las instalaciones eólicas, solares, hidroeléctricas y de biogás constituyen objetivos primordiales porque muchas ya generan electricidad que no siempre puede entregarse a los consumidores cuando la capacidad de transmisión es limitada.
La ubicación de centros de datos junto a esos sitios permite utilizar para el procesamiento energía que de otro modo estaría limitada.
Antimatter dijo que se ha asegurado más de 1 GW de capacidad a través de acuerdos de conexión a la red y ubicaciones reservadas, y que ya están operando más de 160 MW en Texas y Oregón.
Diez unidades en ocho sitios conforman la huella inicial, con cientos de instalaciones más en desarrollo.
La primera gran fase de construcción se centra en 100 implementaciones programadas para 2027, que admiten más de 40.000 GPU y aproximadamente 3,6 exaFLOPS de capacidad informática.
Los planes a largo plazo son expandirse a 1.000 sitios para fines de 2030, proporcionando más de 400.000 GPU y alrededor de 36 exaflops en docenas de países.
“En la era de la IA, la inteligencia no es el cuello de botella, sino el poder”, afirmó David Gurley, cofundador, presidente ejecutivo y director ejecutivo de Antimatter.
“La infraestructura construida para la primera era de la nube y la IA se diseñó en torno a una escala centralizada. Pero la era de la especulación requiere un modelo diferente: más distribuido, más rápido de implementar y soberano por diseño. Esta es una infraestructura construida sobre antimateria”.
Gran parte de la estimación de la demanda proviene de cargas de trabajo, donde los modelos entrenados se ejecutan continuamente en copiloto, servicios automatizados y sistemas de decisión en tiempo real.
Pequeñas instalaciones distribuidas vinculadas a través de software compartido permiten que esos sistemas funcionen como una red mientras mantienen el procesamiento físicamente cerca de los usuarios.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed.