L’introduction de la mémoire HBM4 dans l’IA s’accélère grâce à une normalisation précoce

18 septembre 2024 | par la rédaction de Guide IT @La rédaction
À la une, Actualités, IA, Non classé

L’introduction de la mémoire HBM4 dans l’IA s’accélère grâce à une normalisation précoce

Le standard des mémoires HBM4, essentielles aux performances de l’intelligence artificielle, sera finalisé plus tôt que prévu grâce à une accélération du calendrier par le JEDEC, l’organisme de normalisation des composants électroniques. Les fabricants Samsung, SK Hynix et Micron pourront ainsi commencer à produire ces mémoires dès la rentrée prochaine, avec une disponibilité possible dès la fin de 2025.

La mémoire HBM (High Bandwidth Memory) est une DRAM intégrée directement dans la puce de calcul, offrant une communication directe avec les cœurs de calcul via des canaux dédiés. Contrairement aux mémoires LPDDR traditionnelles, la mémoire HBM offre une capacité équivalente à la DRAM mais avec une vitesse comparable à celle d’une mémoire cache.

Les améliorations apportées par la mémoire HBM4 par rapport à la HBM3E incluent une augmentation de 33% de la capacité et une communication à 2 048 bits simultanément. Les fabricants ont prévu de pouvoir empiler jusqu’à 16 circuits DRAM pour atteindre une capacité de 64 Go de RAM, contre 36 Go pour la HBM3E.

Cependant, cette augmentation de capacité ne doit pas entraîner une augmentation de l’épaisseur des puces finales. Pour cela, les fabricants devront graver les circuits DRAM en 5 nm, voire en 4 nm pour le circuit de communication. Cela représente un défi industriel important, mais Samsung et SK Hynix ont récemment annoncé d’importants investissements dans leurs moyens de fabrication de mémoires HBM.

La mémoire HBM joue un rôle essentiel dans les performances de l’IA en permettant à la puce de calcul d’accéder rapidement à une grande quantité d’informations. Cette mémoire est utilisée dans les GPU de Nvidia et AMD ainsi que dans les serveurs d’inférence d’Intel. L’intégration de grandes capacités de mémoire dans les processeurs peut permettre de rivaliser avec les cartes GPU dédiées au calcul.

Dans le domaine de l’IA, les processeurs Intel et AMD sont souvent devancés en raison de l’accès limité à une DRAM externe. Les mémoires HBM intégrées aux processeurs Silicon d’Apple et Snapdragon X des PC CoPilot+ offrent des performances supérieures grâce à une communication directe avec les cœurs.

La normalisation précoce de la mémoire HBM4 permettra d’accélérer l’évolution de cette technologie clé pour les performances de l’IA. Les fabricants pourront bénéficier d’un temps supplémentaire pour développer leurs produits et les mettre sur le marché plus rapidement. Cette avancée contribuera à stimuler l’industrie des semiconducteurs dans le domaine de l’IA, qui devrait être multipliée par dix au cours de la prochaine décennie.

En conclusion, la normalisation anticipée de la mémoire HBM4 est une étape importante pour l’IA et le calcul haute performance. Elle permettra de remplacer efficacement les mémoires LPDDR traditionnelles et de stimuler l’innovation dans le domaine des semiconducteurs.

L’introduction de la mémoire HBM4 dans l’IA s’accélère grâce à une normalisation précoce
Retour en haut