2024年05月02日( 木 )

AI市場で需要が急増しているHBM(前)

記事を保存する

保存した記事はマイページからいつでも閲覧いただけます。

印刷
お問い合わせ

日韓ビジネスコンサルタント
劉 明鎬 氏

半導体市場の変化

GPU イメージ    最近、チャットGPTなど、生成AI(人工知能)が普及されることによって、半導体市場にも変化が起きている。AIが生活に広く浸透していくことにつれて、技術発展のスピードも速くなり、サービスを提供しようとする企業のサービス内容も多様化している。このような状況下、AI技術とサービスが活用されればされるほど、データ処理に適したGPU(Graphics Processing Unit)の活用も増加している。

 なぜかというと、データを順次処理していくCPU(Central Processing Unit)と違い、GPUは複数のデータを並列に処理することが可能で、AI学習にはこのようにスピードが速く、一定の規則で繰り返す膨大なデータの処理に向いているからだ。その結果、米国のNVIDIA(エヌビディア)社のGPUの需要は爆発的に伸びている。チャットGPTは大規模言語モデルの学習を実行するため、1万個以上のNVIDIAのGPUを使っているという。

 ところが、膨大な量の演算を実行できるGPUが高性能化すればするほど、GPUを補助するメモリの性能向上も求められている。それで、高性能のGPUには、高性能メモリであるHBM(High Bandwidth Memory)も搭載されることになる。AIが膨大なデータを学習するためには、ハイスピードのデータ処理だけでなく、高性能なメモリ機能も必要とするからだ。

 以前はゲームなどで多く使われていたGPUだが、AI市場が誕生したことによって、GPUは追加の需要が急速に伸びている。さらに、ごく最近、GPUはAIに関連したサーバー市場にも多く使われている。AIサーバーに搭載されるメモリであるHBm3の価格は、高性能なだけに、既存のメモリより6∼7倍高く、今後5年間、AIサーバー市場は年平均25%成長することが予測されている。

 もともとは高性能なグラフィック処理向けに開発されたHBMだが、生成AIの需要拡大にともなって、大量のデータを一度に処理できるハイスペックなメモリが求められるようになったことから、サーバーやデータセンターでHBMのニーズが高まっている。サムスン電子とSKハイニックスは半導体部門の赤字を改善するためにもHBMに力を入れている

HBMとは

 HBMとは、複数のDRAMを垂直連結した製品で、高帯域幅メモリを指す。複数のDRAMを積層したことによって、データ処理速度を革新的に速くし、生成AIなど高付加価値・高性能情報技術(IT)の領域で需要が伸びている。人間の脳は計算と保存を同時に遂行することができるが、パソコンを始め、スマートフォン、サーバーなどは、演算と保存を別々に処理している。

 演算を担当するCPUと、データを保存するメモリが別々にあるわけだ。CPUとメモリの間に信号が行き来する道があって、この道を1秒間に通過するデータの数を帯域幅(Bandwidth)と呼ぶ。帯域幅の数値が大きいほどデータ処理が速いことを示している。2010年代になってコンピュータグラフィック技術が本格的に導入されることによって、帯域幅の需要性が増した。

 なぜかというと、3次元のグラフィックにおいてCPUとメモリを行き来するデータ量が大幅に増え、狭い帯域幅では莫大なデータに対応できなくなったからだ。帯域幅を増やすため、いろいろな努力がなされた。基板のサイズを大きくしたりする方法も試みられた。しかし、基板のサイズが大きくなると、帯域幅が増えるというメリットがある反面、効率が悪くなるというデメリットもあった。

(つづく)

(後)

関連キーワード

関連記事