全球AI服务器出货量预测 原图定位 需求端“AI+算力”兴起,HBM 未来前景广阔。随着 AIGC 的兴起,大模型训练在算力提升的基础上,也需要存力升级,HBM 助力突破“内存墙”的限制,成为 AI 芯片的首选。TrendForce 研究报告预估,2023 年 AI 服务器出货量近 120 万台,年增 38.4%,2022-2026 年 AI 服务器出货量年复合增长率为 29%。据此我们预测,全球 HBM2026 年需求量规模将达到 386.2 亿美元。HBM3 已经量产,海力士也已开发出全球最高规格的HBM3E,加之 AMD、英伟达多款芯片的发布,如 AMD 发布的 Instinct MI300X 和 Instinct MI300A 两款高性能芯片,将目标直接对准英伟达,英伟达发布了全新的 AI 芯片 H200,全新的 H200 首款使用 HBM3e 内存,提供了总共高达 141GB 的 HBM3e 内存,有效运行速度约为 6.25 Gbps,六个 HBM3e 堆栈中每个 GPU 的总带宽为 4.8 TB/s。据此可以看出,HBM 未来前景十分广阔。