AMD vient de confirmer ses spécifications Instinct MI300 Accélérateur CDNA 3 qui utilise 4 cœurs de processeur Zen dans un chipset 3D de 5 nm.
Spécifications AMD Instinct MI300 ‘CDNA 3’ : conception de puces 5 nm, 146 milliards de transistors, processeur Zen 4 à 24 cœurs, 128 Go HBM3
Les dernières spécifications dévoilées de l’accélérateur AMD Instinct MI300 confirment que cet APU sera une bête de conception de puce. Le processeur comprendra plusieurs packages de puces 3D de 5 nm, tous combinés pour héberger 146 milliards de transistors. Ces transistors incluent de nombreuses adresses IP de base, des interfaces mémoire, des interconnexions et bien plus encore. L’architecture CDNA 3 est l’ADN central de l’Instinct MI300, mais l’APU est également livré avec un total de 24 centres de données Zen 4 et 128 Go de mémoire HBM3 de nouvelle génération fonctionnant dans une configuration de bus large de 8192 bits, ce qui est vraiment assez soufflé.
Lors du Financial Day 2022 d’AMD, la société a confirmé que le MI300 sera un accélérateur multi-puces et multi-IP Instinct qui comprend non seulement des cœurs GPU CDNA 3 de nouvelle génération, mais est également équipé de cœurs CPU Zen 4 de nouvelle génération.
Pour permettre plus de 2 exaflops de puissance de traitement à double précision, le département américain de l’Énergie, le Lawrence Livermore National Laboratory et HPE se sont associés à AMD pour concevoir El Capitan, qui devrait être le supercalculateur le plus rapide au monde avec une livraison prévue début 2023 . El Capitan tirera parti des produits El Capitan. La nouvelle génération comprend des améliorations de la conception du processeur personnalisé de Frontier.
- Nom de code « Genoa », la prochaine génération de processeurs AMD EPYC comportera un cœur de processeur « Zen 4 » pour prendre en charge la mémoire de nouvelle génération et les sous-systèmes d’E/S pour les charges de travail AI et HPC.
- Les GPU basés sur AMD Instinct de nouvelle génération optimisés pour le calcul des charges de travail HPC et AI utiliseront une mémoire à large bande passante de nouvelle génération pour des performances d’apprentissage en profondeur optimales.
Cette conception excellera dans l’analyse des données d’IA et d’apprentissage automatique pour créer des modèles plus rapides, plus précis et capables de mesurer l’incertitude de leurs prédictions.
Dans sa dernière comparaison de performances, AMD déclare que l’Instinct Mi300 offre une augmentation de 8 fois les performances de l’IA (TFLOP) et une performance de l’IA 5x par watt (TFLOP/watt) par rapport à l’Instinct MI250X.
AMD utilisera à la fois les nœuds de processus 5 nm et 6 nm pour les processeurs Instinct MI300 « CDNA 3 ». La puce sera équipée de la prochaine génération de cache Infinity et comportera l’architecture Infinity de quatrième génération qui permet la prise en charge de l’écosystème CXL 3.0. L’accélérateur Instinct MI300 fera basculer l’architecture de mémoire unifiée de l’APU et les nouveaux formats mathématiques, permettant des performances 5x par watt par rapport à CDNA 2, ce qui est énorme. AMD réduit également de plus de 8 fois les performances de l’IA par rapport aux accélérateurs Instinct MI250X basés sur CDNA 2. L’UMAA du GPU CDNA 3 connectera le CPU et le GPU à un package de mémoire HBM unifié, éliminant la copie de mémoire redondante tout en offrant un faible coût d’acquisition.
Les accélérateurs APU AMD Instinct MI300 devraient être disponibles d’ici la fin de 2023, soit à peu près au moment de la publication du supercalculateur El Capitan susmentionné.