サムスンは新しいHBMチップを発売しました。これは、2倍の速度で、70%効率が高く、AIの処理速度を向上させます。
2015年、AMDはHBMメモリを搭載したグラフィックカードを誇っていました。これは、パフォーマンスと機能の理論上の革命です。 しかし、GDDR6メモリは、価格/性能比が優れているため、最終的に市場を支配することになりました。
サムスンHBM2メモリはAI処理速度を向上させます
ただし、Samsungは新しいHBM-PIM(Process-In-Memory)チップを発表しました。これは、処理速度をこれまでになく高速かつ効率的にする人工知能システムを統合することに加えて、HBM2テクノロジーで際立っています。
これらのメモリチップには、実行される操作の多くを管理する人工知能エンジンが搭載されています。これは、データをメモリからプロセッサに、またはその逆に移動するときに、エネルギー消費を抑え、転送で整数を得るのに役立ちます。
サムスンによると、このシステムをHBM2 Aquablotメモリに適用することで、パフォーマンスを2倍にすることができますが、消費電力を70%以上削減することもできます。主張は確かに印象的であり、このタイプのテクノロジーの大規模な使用を再び促進する可能性があります。規模。
ソフトウェアやハードウェアを大幅に変更する必要はありません
これらの新しいメモリは、ソフトウェアやハードウェアをさらに変更する必要がなく、おそらく今年の後半に市場で入手できるようになるために、すでにテスト段階にあります。
各メモリバンクには、300MHzで動作する小さなプログラマブルコンピューティングユニット(PCU)があります。 ただし、そのようなメモリ用のスペースがなく、各メモリダイの容量が従来の8GB HBM2ダイの半分(4GB)であるため、欠点があります。 その状況のバランスをとるために、Samsungは実際にPCUを備えたダイとPCUを備えていない他のダイを組み合わせて6GBのチップを実現しています。
現時点では、これらのメモリは、AMDが数年前に発売したようなグラフィックカードでは利用できません。アイデアは、これらのモジュールをデータセンターおよび高性能コンピューティング(HPC)システムで提供することです。