HBM
La nouvelle architecture empilée HBM, un pari audacieux (crédit AMD) HBM (Higth Bandwith Memory) est une technique de mémoire DRAM à large bande passante qui empile les puces de mémoire au lieu de les disséminer sur le die (support fait de circuits imprimés). Ces tours de mémoire réduisent sensiblement le chemin parcouru par les données ; elles sont connectées à un contrôleur spécialisé nommé l’interposeur, lui-même directement relié au GPU à alimenter. De cette façon, la bande passante (la quantité des données pouvant transiter) est considérablement améliorée en comparaison de la mémoire utilisée actuellement sur les cartes graphiques, la GDDR6, le tout pour une consommation énergétique sensiblement réduite. Mise au point par AMD depuis 2012, en collaboration avec les spécialistes de SK Hynix, la mémoire HBM fera ses débuts en 2015 sur le nouveau GPU Fiji, une carte graphique haut de gamme qui pourrait permettre à AMD de contrer NVIDIA, son concurrent direct. Cependant, malgré ses excellents résultats, la mémoire HBM coûte sensiblement plus cher à produire de que la GDDR 5/6 standard équipant habituellement les cartes graphiques, ce qui augmentera le prix des produits qui en seront équipés. Ce qui n’empêche pas son évolution, car une version plus performante est déjà commercialisée, la HDM v2, qui doublera les débits et la capacité de mémoire embarquée sur l’interposeur, qui passerait de 1 à 8 GO par composant, autorisant des capacités de 32 GO de mémoire haute performance sur une seule carte graphique, à l’image des GPU V100 de Nvidia.