Intel insinúa que sus nuevas CPU para servidores sustituirán a las GPU

Que Intel está teniendo problemas, serios problemas podríamos decir, con Sapphire Rapids es un hecho que la compañía ha reconocido indirectamente mediante un nuevo retraso. La pregunta más pertinente es la más obvia, ¿merece la pena el retraso frente a los AMD EPYC? Pues no está nada claro, ya que de entrada compiten en inferioridad de condiciones, pero sí que tendrán algo que puede ser distintivo y marcar la diferencia en su sector nicho. Con Sapphire Rapids ¿termina el reinado de las GPU en IA para servidor de gama baja?

Sin duda, Sapphire Rapids es uno de los cambios de mayor complejidad que ha hecho Intel en la historia de sus procesadores de servidores y por bastante. Pero lo que ha afirmado su vicepresidente y gerente general de Inteligencia Artificial y Análisis no tiene desperdicio alguno y puede ser considerado de varias formas. En cualquier caso, parece que Intel va a por las GPU mediante sus CPU.

Intel Sapphire Rapids, ¿puede una CPU derrotar en IA a una GPU?

Intel Xeon Sapphire Rapids Retraso

Las tarjetas gráficas, concretamente sus GPU, son el enclave actual para IA y DL de alto rendimiento. Por ello, Intel ha querido meterse en el mundo de estos componentes lanzando su arquitectura Xe con sus correspondientes microarquitecturas. Pero al mismo tiempo, parece que sus nuevas CPU van a sorprender y, como han dicho desde la compañía, quieren cambiar el juego.

Tras más de 20 años al frente de su división, Wei Li ha lanzado unas declaraciones incendiarias afirmando en una entrevista que las CPU Sapphire Rapids son el equivalente a una CPU tradicional con una GPU integrada, donde el procesador obtiene casi todas las capacidades de aceleración de las últimas para IA.

Evidentemente, se está sugiriendo que las empresas y gobiernos podrían prescindir, al menos en parte, de las GPU de gama baja para IA y DL, porque Sapphire Rapids podría hacerse cargo de tareas más o menos complejas. ¿Qué hay de cierto en esto?

Intel-Sapphire-Rapids-AMX

Todo gira en torno a varias mejoras clave. La primera y más obvia es el uso de la arquitectura MCM donde los cuatro dies (EMIB) que se implementan en el mayor de los Xeon dan como resultado 60 núcleos con microarquitectura Golden Cove, exactamente la misma que usan los Core 12 para PC actuales.

Los cuatro mosaicos son simétricos y están unidos por 4 enlaces UPI x24 a 16 GT/s apoyados además por CLX 1.1 para acelerar la memoria. Esta, la memoria y su IMC, tienen soporte para DDR5 e integran en el die HBM2e como chiplets anexos (no en todos los modelos), lo que unido a la caché de nueva factura, que en el caso de la L3 llegará hasta los 112,5 MB, nos da un caldo de cultivo perfecto para la base de todo el argumento de Wei Li.

Nuevas capacidades e instrucciones de GPU, ahora en CPU

Y es que Intel ha incluido en sus instrucciones AMX, AiA, FP16 y CLDEMOTE, sin contar con AVX512_FP16 de precisión media. Esto permite lanzar cargas de trabajo de IA para que junto con DLBoost y AMX realicen aceleración de tareas para Deep Learning e Inteligencia Artificial. Esto además de los siguientes cambios estructurales en arquitectura:

  • Decodificación de longitud de 16B a 32B
  • Decodificación de 4 wide a 6 wide
  • De 5K se pasa a 12K en branch
  • La caché salta de 2,25K a 4 K μop
  • Un salto de 5 a 6 asignaciones
  • De 10 se pasa a 12 puertos de ejecución
  • Se pasa de 352 buffers de reorganización de entradas a registro a 512

Para manejar el mayor flujo de datos, Intel también ha aumentado la caché en Sapphire Rapids frente a Alder Lake a pesar de tener la misma microarquitectura, y así, se pasa de 1,25 MB de L2 a 2 MB, donde además esta es privada, no como la L3 que es accesible para cualquier hilo o núcleo al completo.