L’un des développements les plus impressionnants dans la fabrication de puces ces dernières années a été les puces et l’empilement de ces puces. Les possibilités sont, comme on dit, infinies. AMD a montré comment augmenter les fréquences d’images de jeu en empilant plus de cache sur un processeur avec le Processeurs Ryzen 7000X3D (s’ouvre dans un nouvel onglet) au CES 2023, mais il avait aussi quelque chose d’aussi impressionnant pour les gens du centre de données.
AMD utilise sa technologie d’empilement de puces 3D pour combiner un CPU et un GPU en une seule puce absolument gigantesque : l’AMD Instinct MI300.
Ce n’est pas seulement que cette puce possède à la fois un CPU et un GPU. Ce n’est pas particulièrement remarquable de nos jours – fondamentalement, tout ce que nous considérons comme un processeur de nos jours a un GPU intégré. AMD n’est pas non plus un étranger, fabriquant des APU depuis des années – essentiellement des puces avec CPU et GPU sous un même toit. C’est essentiellement ce qu’AMD définit le MI300 : un APU.
Mais ce qui est cool avec le dernier APU d’AMD, c’est l’échelle de la chose. C’est énorme.
Il s’agit d’un accélérateur de centre de données qui contient 146 milliards transistors. C’est presque le double de la taille du GPU AD102 de Nvidia à 76,3 milliards – le GPU du RTX 4090. Et cette chose est énorme. En fait, le PDG d’AMD, le Dr Lisa Su, a gardé la puce du MI300 sur scène au CES et si elle est rétrécie ou si cette chose a la taille d’un bon stroopwafel. Le refroidissement de cette chose doit être immense.
La puce fournit un GPU issu de l’architecture CDNA 3 d’AMD. C’est une version de l’architecture graphique conçue uniquement pour les performances informatiques : RDNA pour les jeux, CDNA pour l’informatique. Il est accompagné d’un processeur Zen 4 et de 128 Go de mémoire HBM3. Le MI300 est livré avec neuf puces de 5 nm en plus de quatre puces de 6 nm. Cela suggère neuf puces CPU ou GPU (ressemblant à six puces GPU et trois puces CPU) en plus de ce que l’on pense être la matrice de base en quatre parties sur laquelle tout est chargé. Ensuite, il y a de la mémoire aux confins de cela. Jusqu’à présent, aucun détail n’a été donné sur sa composition réelle, mais nous savons que tout est connecté par une architecture d’interconnexion Infinity de 4e génération.
L’idée est que si vous chargez tout sur un seul paquet avec moins de cerceaux que les données doivent traverser pour se déplacer, vous obtenez un produit très efficace par rapport à celui qui pourrait faire beaucoup d’appels vers la mémoire hors puce, ce qui rend tout est retardé de traitement. Le calcul à ce niveau est une question de bande passante et d’efficacité, donc ce type d’approche a beaucoup de sens. C’est le même genre de principe que quelque chose comme Infinity Cache d’AMD sur ses GPU RDNA 2 et 3. Avoir plus de données à portée de main signifie que vous n’avez pas à vous déplacer aussi loin pour obtenir des données pertinentes et que vous pouvez maintenir des fréquences d’images élevées.
Mais il y a plusieurs raisons pour lesquelles nous n’avons pas d’accélérateur de style MI300 pour les jeux. Premièrement, des attentes raisonnables pour les budgets de la plupart des joueurs suggèrent que nous ne pouvons pas nous permettre ce qu’AMD veut facturer pour un MI300. Ça va être beaucoup. De même, personne ne sait comment programmer un jeu pour voir plusieurs puces de calcul sur un GPU de jeu comme une seule entité sans codage spécifique. Nous avons été là avec SLI et CrossFire, et ça ne s’est pas bien terminé.
Mais oui, le MI300 est extrêmement grand et extrêmement puissant. AMD vante une amélioration par huit des performances de l’IA par rapport à son propre accélérateur Instinct MI250X. Et si vous vous posez la question, le MI250X est également un monstre multi-chiplet avec des transistors 58B, mais ce nombre autrefois impressionnant semble maintenant un peu petit. En bref, ce n’était pas une puce facile à battre, mais le MI300 l’était et il est également cinq fois plus efficace que la marque AMD.
Le MI300 arrive dans la seconde moitié de l’année, donc encore loin. Cela dit, c’est plus quelque chose pour s’émerveiller que pour éclabousser. À moins que vous ne travailliez dans un centre de données ou que vous travailliez dans l’IA et que vous ayez accès à des méga dollars.