图53.全球HBM市场规模预测(百万美元) 原图定位 需求端来看,HBM 是本轮存储周期中的最强增长动能。HBM 广泛应用于 AI 加速器中,尤其是应用于 AI 模型训练的加速器,为了避免内存带宽瓶颈,目前主流的 AI 训练加速器均搭载有 HBM 芯片。根据美光预测,未来 HBM 的几年需求CAGR 将达到 50%。同时,根据美光披露数据,在比特数相同的情况下,HBM 通常需要消耗 2 倍以上于普通 DDR5 DRAM 的晶圆;主要系为 TSV 留出的空间占据部分 Die Area,以及多层芯片堆叠导致良率有有所下降导致。HBM3/3E 系列芯片通常采用 8-12 颗 DRAM 堆叠,而 HBM4 预计将采用 16 颗 DRAM 堆叠。