AI向けで“速い”メモリー「HBM」の需要急増 津村明宏
有料記事
生成AIの普及で、データ転送速度の速い高帯域幅メモリー(HBM)の需要が急激に増加しており、DRAM市場を押し上げている。
高い単価と工場稼働率上昇でDRAM市場回復
長らく半導体市況の足を引っ張ってきたメモリー市場に回復の兆しが見え始めている。その原動力となっているのが、HBM(High Bandwidth Memory=高帯域幅メモリー)の急激な需要増加である。HBMとは、複数のDRAM(一時記憶用半導体)チップを縦に積んだ3D(三次元)積層技術の一つ。DRAMチップ同士をTSV(シリコン貫通電極)とマイクロバンプでつなぐため、平置きしたり、ワイヤーで接続したりするよりも信号の伝播(でんぱ)が速く、非常に高い帯域幅(データ転送速度)を持つのが特徴だ。
HBMの需要を押し上げているのが、ChatGPTに代表される生成AI(人工知能)の普及だ。生成AIを駆動させるサーバーには、並列計算処理を行うGPU(画像処理回路)と、それを支える大量のHBMが必要不可欠である。また、HBMに搭載されるDRAMチップは、TSVのエリアを設ける必要があるため、同じ容量のDRAMチップに比べてダイサイズ(面積)が約2倍と大きく、それゆえに単価も圧倒的に高い。ダイサイズが大きくなると、ウエハー1枚から取れるチップの数が減るため、より多くのウエハーを投入する必要があり、この循環がメモリー半導体メーカーの工場稼働率や収益性を徐々に押し上げつつあるのだ。
SKハイニックス攻勢
HBMの需要拡大を見事にとらえたのが、メモリー市場で世界2位の韓国SKハイニックスだ。DRAM市場では常に世界首位の韓国サムスン電子の後塵(こうじん)を拝してきたが、ことHBMに関してはサムスンよりも早く事業体制を整え、一歩リードしている。HBMの今後の需要に関して、SKハイニックスは2023年10~12月期の決算会見で「中長期で年率60%の増加が見込まれ、AIの商業化の程度によっては上振れの可能性がある」とし、メモリー半導体メーカーの大きな収益源になっていくことを示唆した。
また、ここにきてパソコンやスマートフォンにAI機能を搭載していく「オンデバイスAI」の動きが加速しているが、これに関しても「メモリー需要の新たな推進力になる。機器によって多少の違いはあるが、AIパソコンは従来の2倍以上のDRAM容量が必要になる」とし…
残り1449文字(全文2449文字)
週刊エコノミスト
週刊エコノミストオンラインは、月額制の有料会員向けサービスです。
有料会員になると、続きをお読みいただけます。
・1989年からの誌面掲載記事検索
・デジタル紙面で直近2カ月分のバックナンバーが読める