- Intel y Google han firmado un acuerdo de varios años para poner Xeon en la infraestructura de la nube
- Las instancias C4 y N4 de Google Cloud ya se ejecutan en procesadores Xeon 6
- Intel y Google están desarrollando conjuntamente IPU personalizadas para redes y almacenamiento
Intel y Google anunciaron una colaboración de varios años que colocará a los procesadores Intel Xeon en el corazón de la infraestructura de la nube de Google en el futuro previsible.
El acuerdo abarca varias generaciones de chips Xeon e incluye sistemas utilizados para cargas de trabajo de IA, tareas de inferencia y computación de propósito general en los centros de datos globales de Google.
Las instancias de Google Cloud, como C4 y N4, ya dependen de procesadores Xeon 6, y este acuerdo garantiza que ese patrón continuará.
El artículo continúa a continuación.
Por qué las CPU siguen siendo importantes en la era del hardware especializado en IA
“La IA está remodelando la forma en que se construye y escala la infraestructura”, afirmó el director ejecutivo de Intel, Lip-Boo Tan.
“Escalar la IA requiere más que aceleradores: requiere sistemas equilibrados. El rendimiento, la eficiencia y la flexibilidad de las CPU y las IPU son fundamentales para satisfacer las demandas de las cargas de trabajo de IA modernas”.
El anuncio llega en un momento en el que muchos hiperescaladores están acelerando la adopción de procesadores personalizados basados en ARM para tareas de IA.
Counterpoint Research afirmó recientemente que el 90% de los servidores de IA que ejecutan silicio personalizado dependerán de la arquitectura del conjunto de instrucciones Arm, dejando a x86 solo una pequeña porción de las nuevas implementaciones.
Para garantizar que Xeon siga siendo relevante, Intel y Google también están desarrollando conjuntamente unidades de procesamiento de infraestructura personalizadas diseñadas para manejar cargas de trabajo de redes, almacenamiento y seguridad.
Estas IPU actúan como aceleradores basados en ASIC que descargan tareas de infraestructura de la CPU host, liberando a los procesadores Xeon para que se concentren en la ejecución de aplicaciones.
Esta separación mejora la eficiencia del sistema y la asignación de recursos en grandes implementaciones de nube impulsadas por herramientas de inteligencia artificial, agentes de inteligencia artificial y modelos de lenguaje de gran tamaño.
La aceleración de la CPU y la infraestructura siguen siendo las piedras angulares de los sistemas de IA, desde la orquestación del entrenamiento hasta la inferencia y el despliegue”, afirmó Amin Vahdat, vicepresidente senior y tecnólogo jefe de infraestructura de IA de Google.
Actualmente, Google utiliza procesadores Xeon 5 y Xeon 6, además de sus propios procesadores Axion personalizados basados en Arm en múltiples niveles de servicio.
Estas implementaciones se ejecutan junto con los procesadores personalizados de Google utilizados en otras partes de su infraestructura.
Intel y Google dicen que la colaboración entre CPU e IPU continuará a lo largo de futuras generaciones de sistemas, cubriendo los esfuerzos de integración continuos en toda la capa de infraestructura de la nube.
Sostienen que los aceleradores de infraestructura y CPU siguen siendo parte de los patrones actuales de diseño de la nube en todos los sistemas distribuidos.
Si bien muchas cargas de trabajo que se ejecutan en los centros de datos de Google requieren compatibilidad con versiones anteriores de la arquitectura x86, otras requieren el rendimiento máximo de un solo subproceso que brindan las CPU Xeon.
Se espera que estos requisitos continúen durante años, lo que explica por qué Intel y Google firmaron este acuerdo plurianual.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy