Samsung a lancé une toute nouvelle puce HBM, elle est deux fois plus rapide et 70% plus efficace et elle augmente la vitesse de traitement de l’IA.
En 2015, AMD s’est vanté de cartes graphiques avec mémoire HBM, une révolution théorique en termes de performances et de fonctionnalités. Mais les mémoires GDDR6 ont fini par dominer le marché en raison de leur meilleur rapport prix / performances.
La mémoire Samsung HBM2 augmentera la vitesse de traitement de l’IA
Cependant, Samsung vient de présenter ses nouvelles puces HBM-PIM (Process-In-Memory), qui se distinguent par leur technologie HBM2 en plus d’intégrer un système d’intelligence artificielle qui rend la vitesse de traitement plus rapide et plus efficace que jamais.
Ces puces de mémoire ont un moteur d’intelligence artificielle qui est responsable de la gestion de nombreuses opérations effectuées sur elles, ce qui permet lors du déplacement de données de la mémoire vers le processeur ou vice versa de consommer moins d’énergie et de gagner des nombres entiers dans les transferts.
Selon Samsung, en appliquant ce système aux mémoires HBM2 Aquablot, il est possible de doubler les performances, mais aussi de réduire la consommation électrique de plus de 70%, les affirmations sont certainement frappantes et pourraient à nouveau booster l’utilisation de ce type de technologie sur un escalader.
Il n’y a pas besoin de modifications logicielles ou matérielles importantes
Ces nouvelles mémoires ne nécessitent aucune modification logicielle ou matérielle supplémentaire et sont déjà en phase de test pour être disponibles sur le marché probablement dans la seconde moitié de l’année.
Chaque banque de mémoire a une petite unité de calcul programmable (PCU) fonctionnant à 300 MHz. Mais il y a un inconvénient car il n’y a pas de place pour la mémoire et chaque puce mémoire a la moitié de la capacité (4 Go) par rapport aux matrices HBM2 classiques de 8 Go. Pour équilibrer cette situation, Samsung combine en fait des matrices avec PCU avec d’autres sans PCU pour obtenir des puces de 6 Go.
Pour le moment, ces mémoires ne seront pas disponibles pour les cartes graphiques comme celles lancées par AMD il y a des années, et l’idée est de proposer ces modules dans les centres de données et les systèmes de calcul haute performance (HPC).