《美光科技-美股公司研究报告-HBM自我突破在AI浪潮中引领重估-240514(76页).pdf》由会员分享,可在线阅读,更多相关《美光科技-美股公司研究报告-HBM自我突破在AI浪潮中引领重估-240514(76页).pdf(76页珍藏版)》请在三个皮匠报告上搜索。
1、 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。1 证券研究报告 美光科技美光科技(MU US)HBM 自我突破在自我突破在 AI 浪潮中引领重估浪潮中引领重估 华泰研究华泰研究 首次覆盖首次覆盖 投资评级投资评级(首评首评):):买入买入 目标价目标价(美元美元):):165.00 2024 年 5 月 14 日美国 半导体半导体 HBM 自我突破,首次覆盖给予“买入”评级,目标价自我突破,首次覆盖给予“买入”评级,目标价 165 美元美元 14 年以来美光估值经历三次峰值,分别源于移动互联网普及(2.8x Forward PB,简写为 FPB)、企业上云潮和加密货币潮(18
2、年 1.7x FPB)以及疫情居家办公带来的短期需求激增(21 年 2.0 x FPB)。截至 24 年 5 月 12 日美光估值为 2.6x FPB(彭博一致预期),逼近历史峰值。然而,我们认为,美光已来到重估的分水岭,突破或由双轮驱动:1)传统 DRAM 和 NAND 的ASP 回升及下游需求改善所带来的估值修复;2)借助 AI 浪潮催生的新需求,HBM3E 和 DDR5 等高端产品的营收占比提升,带动利润率优化以及估值上修。对比同业海力士和三星,25 年彭博一致预期为 1.5x 和 1.3x,但鉴于 14 年以来美股纳指 PB 约为韩国高科技板块 KOSDAQ PB 的 2.5 倍,我们
3、给予美光 FY25 PB 3.3x,首次覆盖给予“买入”评级,目标价 165 美元。DRAM 业务:业务:HBM3E 追赶市场份额,追赶市场份额,DDR5 及传统及传统 DRAM 巧借巧借 AI 东风东风 我 们 预 计 FY24/25/26 营 收 为 178/278/320 亿 美 元,对 应 同 比 为62.3%/56.2%/15.1%。我们认为,HBM 产品作为 AI 芯片“标配”,GPU+HBM模式提升芯片 AI 训练和推理表现,ASIC AI 加速器亦能通过增加 HBM 内存有效提升性能,弥补“算力差距”,需求能见度高,我们预计 24-25 年 HBM将维持 4%-5.4%的供给缺
4、口。美光通过 HBM3E 供货英伟达 H200 等,客户基础稳固,叠加有望在 FY24-25 进入其他 AI 芯片供应链,将实现量价齐升和利润率优化。同时,传统 DRAM 产品伴随着 AI 设备及生成式 AI 逐渐向端侧扩展,美光面向端侧 AI 的 GDDR7、LPDDR5X 和 LPCAMMA2 产品将三箭齐发。此外,通用服务器需求或也见回暖,叠加 Win 10 终止服务及Win 12 和 co-pilot 的推出带动新一轮 PC 换机周期,亦将利好 DRAM 需求。NAND 业务:业务:FY24-25“供销两旺”,“供销两旺”,下游设备需求拉动下游设备需求拉动大容量产品增长大容量产品增长
5、我 们 预 计 FY24/25/26 营 收 为 69/122/125 亿 美 元,对 应 同 比 为64.2%/77.1%/2.4%。23 年供应端减产以来下游库存基本出清,24 年 NAND复苏有望,核心将是下游设备需求拉动。端侧 AI 场景的大容量存储要求亦带来需求新动能。在实现“更大容量+更高耐用+更低成本”的要求下,美光 232 层 TLC/QLC NAND 为核心的产品矩阵将受益于上述各场景需求。HBM 战场战场三足鼎立,三足鼎立,NAND 市场则百家争鸣,美光份额能否站稳脚跟?市场则百家争鸣,美光份额能否站稳脚跟?HBM 在内存里技术壁垒较高,美光、海力士和三星三足鼎立。龙头海力
6、士原为英伟达 HBM3 独供;行业第二三星的 HBM3E 也“Jensen Approved”;美光凭借 HBM3E 成功进入英伟达供应链,或将引发估值重估,从无到有实现更高的营收弹性。反之,传统 DRAM 标准化程度高,大宗商品属性强;NAND 市场更为分散,主流厂商技术迭代基本同步,份额争夺在于产能规模。风险提示:AI 芯片需求不及预期;下游需求不及预期;地缘政治风险等。研究员 何翩翩何翩翩 SAC No.S0570523020002 SFC No.ASI353 +(852)3658 6000 基本数据基本数据 目标价(美元)165.00 收盘价(美元 截至 5 月 10 日)121.24
7、 市值(美元百万)134,257 6 个月平均日成交额(美元百万)1,820 52 周价格范围(美元)59.80-130.54 BVPS(美元)40.18 股价走势图股价走势图 资料来源:S&P 经营预测指标与估值经营预测指标与估值 会计年度会计年度 2022 2023 2024E 2025E 2026E 营业收入(美元百万)30,758 15,540 25,073 40,422 44,916+/-%11.02(49.48)61.34 61.22 11.12 归属母公司净利润(美元百万)8,687(5,833)387.89 9,395 10,839+/-%48.22(167.15)(106.6
8、5)2,322 15.37 EPS(美元,最新摊薄)7.74(5.27)0.35 8.48 9.79 ROE(%)18.51(12.41)0.87 18.77 17.91 PE(倍)6.37(16.29)327.85 13.54 11.73 PB(倍)1.11 2.15 2.82 2.31 1.92 EV EBITDA(倍)8.12 70.30 15.78 6.76 5.28 资料来源:公司公告、华泰研究预测 (7)20467399May-23Sep-23Jan-24May-24(%)美光科技标普500 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。2 美光科技美光科技(MU U
9、S)正文目录正文目录 美光的自我突破,在美光的自我突破,在 AI 浪潮下引领的新一轮估值重估浪潮下引领的新一轮估值重估.6 HBM:AI 芯片性能催生内存需求,后起之秀美光该如何布局?芯片性能催生内存需求,后起之秀美光该如何布局?.13 AI 芯片存算发展不同步,内存瓶颈催生 HBM 需求.13 内存迭代提升 AI 芯片性能,HBM 相较传统显存实现容量和带宽倍增.14 面向 ASIC 新蓝海,HBM 同样蓄势待发.15 HBM 核心工艺:TSV 和键合堆叠.17 CoWoS 成 HBM 搭载关键,英特尔 EMIB 能否接力?.17 HBM3/3E 扩产加速,但供需缺口短期或难以缓解.20 H
10、BM 供需测算:24-25 年需求高速增长,供给缺口短期难以缓解.21 从 AI 服务器需求看 HBM,高速增长带来内存新增长点.25 竞争格局:三大厂商瓜分 HBM3/3E 市场,各显神通角逐 HBM4.25 美光:跳过 HBM3,1-制程 HBM3E 加速追赶.27 SK 海力士:超越三星的 HBM 领头羊,先发优势、领先制程和键合工艺稳坐头把交椅.29 三星:依托自家晶圆代工部门,一站式策略追赶海力士市场份额.31 HBM4:三大厂商方案齐出,混合键合延迟导入影响几何?.33 DRAM:制程精进:制程精进+端侧端侧 AI 驱动的创新路线驱动的创新路线.36 头部厂商主动减产效应显现,DR
11、AM ASP 23H2 以来迎来修复.38 AI 拉动 PC、手机以及服务器出货量,撬动 DRAM 需求增长.39 PC 市场触底反弹,Windows 系统换代拉动换机潮.39 AI PC 崛起,渗透率未来可期,或成未来 PC 销量增长的主要动力.40 AI 手机引领旗舰潮流,中端机种开始全面渗透,拉动 LPDDR5X 需求.43 AI 服务器需求强劲,通用服务器配置新平台引领换机潮.45 面向 AI 的产品布局,GDDR7、LPDDR5X 和 LPCAMM2 三箭齐发.47 美光面向 AI PC 和 AI 手机的产品布局:GDDR7、LPDDR5X 和 LPCAMMA2.48 1-制程领先竞
12、争对手,投资美日台重点布局.51 竞争格局:行业高度集中,三足鼎立技术咬合紧密,制程产品各有千秋.52 NAND:服务器:服务器 eSSD 和大容量智能手机和大容量智能手机 UFS 引领新增长引领新增长.57 NAND ASP 23Q3 见底回升,24 年 ASP 增长趋平稳.58 HBM 和 DDR5 之外,AI 将如何惠及 NAND Flash?.60 围绕 232 层 NAND,美光瞄准 AI PC、数据中心和大容量智能手机.61 竞争格局:技术趋同,厂商份额差异主要鉴于产能规模.64 盈利预测与估值:盈利预测与估值:AI+HBM 带来重估机会,目标价带来重估机会,目标价 165 美元美
13、元.67 风险提示.72 图表目录图表目录 图表 1:美光科技 TTM PB 估值周期图.7 图表 2:公司营收按部门划分(FY,百万美元).11 图表 3:公司营收分部门同比增速(FY,%).11 图表 4:公司营收按技术划分(FY,百万美元).11 图表 5:公司营收分技术同比增速(FY,%).11 图表 6:美光分技术营收占比(%).11 图表 7:美光 Non-GAAP 利润率(%).12 图表 8:美光分地区营收占比(%).12 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。3 美光科技美光科技(MU US)图表 9:AI 训练中的数据传输路径示例:从外部存储到片外内存
14、,再到计算核心.13 图表 10:内存带宽需求伴随模型复杂度快速提升(GB/s).14 图表 11:AI 模型复杂度提升和 AI 芯片内存容量提升并不同步.14 图表 12:主流加速卡算力增长和内存方案/传输带宽增长并不同步.14 图表 13:GPU 内存上限带来“内存墙”问题.14 图表 14:英伟达 H100 与 H200 性能对比.15 图表 15:DDR、GDDR 和 HBM 对比:HBM 通过堆叠实现内存容量和带宽倍增.15 图表 16:主流 AI 芯片参数及内存配置:伴随芯片迭代,算力提升、内存扩容和带宽拓展是大势所趋,HBM 成为 AI芯片标配.16 图表 17:HBM 通过 T
15、SV 垂直连接,以微凸点作为键合接点.17 图表 18:TSV 垂直连接免去传统引线的复杂布线.17 图表 19:对比 GDDR5:HBM 和逻辑芯片封装于同一中介层.17 图表 20:GDDR5 和 HBM1 主要性能对比.17 图表 21:HBM 利用 2.5D 封装,本质上形成一种“近存计算”,缩短数据传输的物理距离.18 图表 22:CoWoS 缩短片间距实现更好的传输信号完整性.19 图表 23:台积电 CoWoS 迭代增大硅中介尺寸,匹配 HBM 封装需求.19 图表 24:AMD MI300 架构:8 块 HBM3 分置两侧,通过 CoWoS 与中间逻辑芯片的 I/O 层连接.1
16、9 图表 25:三大厂商 2024-2025 年 HBM 晶圆投入量.21 图表 26:根据计算,单片 12 英寸 Wafer 可切割 HBM3/3E DRAM 约 442(=491 x 0.9)颗.22 图表 27:HBM 各产品产能分布预测(%).22 图表 28:三大厂商 2024-2025 年 HBM 晶圆投入量.22 图表 29:2022-2025 年 HBM 出货量(mn GB).23 图表 30:2022-2025 年 HBM 市场规模(十亿美元).23 图表 31:2024-2025 HBM 供应端产能预测(K GB).24 图表 32:美光 2024-2025 年 HBM 营
17、收及占比.24 图表 33:Dell ISG 营收同比增长(百万美元,%).25 图表 34:Dell ISG 营收环比增长(百万美元,%).25 图表 35:HBM 工艺成本拆分(4 层 DRAM,99.5%良率).25 图表 36:2023 年 HBM 市场份额.25 图表 37:HBM 主要生产商技术路线图 2022-2026.26 图表 38:三大厂商 HBM3/3E 的性能对比表.26 图表 39:HBM 进程时间表.27 图表 40:美光 HBM3E 产品展示.28 图表 41:美光 HBM3E 规格参数.28 图表 42:美光 HMC 设计概念和性能参数:与 HBM 高度相仿.2
18、8 图表 43:MR-MUF 对比 TC-NCF 温度下降 14%.29 图表 44:Advanced MR-MUF 对比 MR-MUF 散热能力进一步提高.29 图表 45:SK 海力士以 MR-MUF 代替 TC-NCF,大幅降低 HBM 热阻.30 图表 46:SK 海力士 6 代 HBM 参数对比.30 图表 47:海力士分业务营收(CY,万亿韩元,%).30 图表 48:海力士各业务营收占比(CY,%).30 图表 49:海力士 DRAM 营收(CY,万亿韩元,%).31 图表 50:海力士 NAND 营收(CY,万亿韩元,%).31 图表 51:海力士盈利能力(CY,%).31 图
19、表 52:海力士库存情况(CY,万亿韩元,%).31 图表 53:三星历代 HBM 参数对比.32 图表 54:TC(热压)键合工艺原理示意.33 图表 55:对比第五代产品 HBM3E,第六代产品 HBM4 有望实现存储器和逻辑芯片的垂直堆叠.33 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。4 美光科技美光科技(MU US)图表 56:AMD V-Cache 原理 将 L3 缓存置于 CPU 顶部,两侧硅片用于芯片加固和辅助散热.34 图表 57:微凸点和混合键合横截面对比,混合键合无焊料球.34 图表 58:混合键合相较微凸点的 I/O 密度提升.34 图表 59:混合键
20、合的工艺流程:电镀-CMP 及清洗-离子活化-对齐并施压贴合-退火使铜接点膨胀并接合-铜离子相互扩散完成键合.35 图表 60:HBM 三大厂商 SWOT 分析.35 图表 61:DRAM 产业结构(以 PC 为例):美光属于 DRAM“原厂”,即绝大部分 DRAM 颗粒的来源.37 图表 62:GDDR 和 LPDDR 相较 DDR 在数据传输速率和功耗方面针对性演化.37 图表 63:美光 DRAM 布局及未来发展路线.37 图表 64:DDR3 和 DDR4 近 4 年价格变化情况(单位:美元).38 图表 65:DDR5 近 1 年价格变化情况(单位:美元).38 图表 66:LPDD
21、R 近 4 年价格变化情况(单位:美元).38 图表 67:PC DDR4 对比服务器 DDR4(单位:美元).38 图表 68:23Q4-24Q1 DRAM 合约价见较大涨幅,24Q2 DRAM 合约价环比涨幅或逾 20%.39 图表 69:全球 PC 出货量:23H2 以来回温(百万,%).40 图表 70:23 年主流 ODM/OEM 库存基本出清,24Q1 库存水位略高于疫情前水平.40 图表 71:各 AI 巨头亮相大会,与联想携手推进 AI 发展.41 图表 72:AI PC 出货量在 20202030 年的 CAGR 将达到 50%以上.42 图表 73:2023-2023 年
22、AI PC 创新扩散曲线.42 图表 74:各 PC 厂商 AI PC 上市节奏.42 图表 75:英特尔 AI PC 产品规划参数对比.42 图表 76:全球智能手机出货量:23H2 以来回温(百万,%).43 图表 77:功耗与频率测试:为应对机体过热,A17 Pro 主动降频至 A16.43 图表 78:散热性能对比:Iphone 系列对比安卓旗舰有较大差距.43 图表 79:三星 Galaxy S24 Ultra 对比 S23 Ultra.44 图表 80:三星 Galaxy AI 实现机上 AI 功能.44 图表 81:S24 和 S23 散热板对比.44 图表 82:A17 Pro
23、 处理器性能提升.44 图表 83:2019-2024 年全球服务器出货量(单位:百万,%).45 图表 84:2022-2027 年全球服务器市场规模(单位:十亿美元).45 图表 85:四大科技巨头近五年的资本开支(百万美元).46 图表 86:2022-2028 DRAM 出货量变化(以模组和世代区分).46 图表 87:Intel 和 AMD 采用 DDR5 的服务器 CPU.47 图表 88:2023 年英特尔和 ARM 架构服务器 CPU 产品参数对比.47 图表 89:GDDR6X 在英伟达 40 系显卡中的应用.48 图表 90:美光 GDDR6X 与前几代主要性能对比.49
24、图表 91:美光 LPDDR5X.49 图表 92:美光第三代 LPDDR5X 率先采用 1-制程,制程领先海力士和三星同代产品(截至 24 年 4 月).49 图表 93:LPDDR 在传输速率和应用场景有明显代差,逐渐适配 AI 场景.49 图表 94:LPCAMM 模组相较于 SODIMM 减少设备内部空间占用.50 图表 95:伴随 AI 模型复杂度提高,AI PC 的内存/带宽需求提升.50 图表 96:PCMark 10 跑分对比-美光 LPCAMM2 和 So-DIMM.50 图表 97:美光制程节点精进路线图及对应 DRAM 产品,下一代 1-制程的存储芯片预期 2025 年
25、H1 开始量产.51 图表 98:美国芯片与科学法案补助款项(亿美元).52 图表 99:美光美日台三地 DRAM 投资计划.52 图表 100:DRAM 市场竞争格局演变.53 图表 101:三大厂商 24 年 DRAM 产能规划.53 图表 102:DRAM 主要玩家的制程和产品路径(2022 年 6 月发布),三大厂商 DRAM 产品迭代咬合紧密.54 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。5 美光科技美光科技(MU US)图表 103:GTC 2024 上三星展出的 GDDR7 参数.55 图表 104:HKMG 将栅极材料由多晶硅/SiON 转为高 k/金属.5
26、5 图表 105:HKMG 实现晶体管栅氧化层厚度减少,功率降低.55 图表 106:DRAM 三大厂商 SWOT 分析.56 图表 107:美光 24 年 4 月 26 日官宣 232 层 QLC NAND.58 图表 108:3D NAND 推出以来,密度每年以稳定的速度提高 30%。.58 图表 109:SLC 向 QLC 等转变提升每单元存储位数,但牺牲了可靠性.58 图表 110:TLC NAND Flash 近 5 年价格变化情况(单位:美元).59 图表 111:22 年底至 23 年半导体厂商 NAND 相继减产,24Q1 开始逐步回调产能.59 图表 112:24Q2 NAN
27、D 合约价环比涨幅将收敛至 13%-18%.60 图表 113:加速器举例:eSSD 将存储的数据传输至 CPU 和 DRAM 进行“中转”,再经由 PCIe 总线至逻辑芯片.60 图表 114:PCIe 迭代带来传输速率的翻倍提升.60 图表 115:数据中心 eSSD 的性能关注点:高容量和高耐用性.60 图表 116:UFS 迭代带来传输速率的翻倍提升.61 图表 117:主流 NAND 厂商 2023 年至今技术进展.61 图表 118:美光 232 层 TLC NAND 闪存.62 图表 119:美光 6500 ION NVMe SSD(30.72 TB,6.8GB/s 循序读取速率
28、、5GB/s 循序写入速率).62 图表 120:美光 NAND 主流高端产品.63 图表 121:美光 UFS4.0 产品介绍.63 图表 122:美光 UFS4.0 产品介绍.64 图表 123:NAND 闪存市场竞争格局演变.64 图表 124:NAND 主要生产商技术路线图 2014-2024Q1,3D NAND 层高增长迅速,头部厂商技术迭代基本同步.65 图表 125:3D NAND 工艺主要难题在于蚀刻通道孔.66 图表 126:伴随 NAND 层数增高,生产所需时间呈指数型增长.66 图表 127:NAND 三大厂商 SWOT 分析.66 图表 128:十年 PB 对比:纳斯达
29、克指数和韩国 KOSDAQ 指数,纳指 P/B 估值享有溢价.67 图表 129:美光、SK 海力士和三星历史 ROE(单季度,%).68 图表 130:美光、SK 海力士和三星估值(截至 2024 年 5 月 12 日).68 图表 131:美光、SK 海力士和三星历史 PB(截至 24 年 5 月 12 日).70 图表 132:美光、SK 海力士和三星历史 PS(截至 24 年 5 月 12 日).70 图表 133:费城半导体指数(SOX)和美光股价走势趋同.71 图表 134:近十年费城半导体指数(SOX)和半导体厂商存货 DIO 基本呈相反方向变动.71 图表 135:美光分业务盈
30、利预测(单位:百万美元).71 图表 136:全球 DRAM 营收及 YoY(CY,百万美元).72 图表 137:全球 NAND 营收及 YoY(CY,百万美元).72 图表 138:美光科技 PE-Bands.72 图表 139:美光科技 PB-Bands.72 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。6 美光科技美光科技(MU US)美光的自我突破,在美光的自我突破,在 AI 浪潮下引领的新一轮估值重估浪潮下引领的新一轮估值重估 区别于市场观点:区别于市场观点:我们认为,美光我们认为,美光将来到重估的分水岭,将来到重估的分水岭,估值提升估值提升或或将是双轮驱动,将是双
31、轮驱动,1)存存储行业步入新一轮上行周期,储行业步入新一轮上行周期,传统传统 DRAM 和和 NAND 的的 ASP 回稳回稳及下游需求改善所带来的及下游需求改善所带来的估值修复;估值修复;2)同时借助同时借助 AI 浪潮催生的新需求浪潮催生的新需求,HBM3E 和和 DDR5 营营收占比提升带动利润收占比提升带动利润率优化,引领率优化,引领估值突破。估值突破。我们认为市场低估了存储行业上行周期的持续性和重估能力,以我们认为市场低估了存储行业上行周期的持续性和重估能力,以及对美光能如何受益于本轮以及对美光能如何受益于本轮以 AI 驱动的周期存在认知差。驱动的周期存在认知差。市场普遍认知到 DR
32、AM 及 NAND 两种传统存储产品在 24 年将出现量价修复,并认为 PC出货量将伴随 AI PC 崛起、下游库存出清以及新一轮换机潮回暖,同时手机市场在 24 年也将开始复苏。但我们认为,市场忽略了本轮以 AI 驱动的上行周期的持续性与 18 年(云计算数据中心搭建和虚拟货币潮)、21 年(疫情期间在家办公)两轮周期不同,并低估了内存(特别是 HBM)在 AI 计算里起到的重要作用。另外,市场也普遍认为美光在 HBM 技术里落后于龙头 SK 海力士和晶圆代工一体化的三星两家韩系企业,对美光在 HBM 等高端产线增长及在 HBM 市场争夺中的定位尚存不确定性,但我们认为,美光 1-制程帮助其
33、 HBM3E实现效能优势,其 HBM3E 已经成功进入英伟达供应链,并有望拓展客户至其他 AI 芯片,需求能见度高,或将从无到有实现更高的营收弹性 。高存储密度和高带宽的特性让高存储密度和高带宽的特性让 HBM 成为了成为了 AI 场景下内存容量和带宽瓶颈的解决方案场景下内存容量和带宽瓶颈的解决方案,减,减少算力浪费,在训练和推理场景扮演不同角色:少算力浪费,在训练和推理场景扮演不同角色:1)AI 训练的大容量“数据中转站”:训练的大容量“数据中转站”:训练数据需从 SSD 等外部储存器分批次(batch)加载进 HBM,等待加速器调用,同时,训练过程中的模型参数、正向传播的中间状态(acti
34、vation)、优化器状态以及反向传播的梯度(gradient)也需存入 HBM,方便加速器在计算和优化过程中快速访问和读写。HBM 以其大容量、高带宽的特性,减少加速器访问外部储存器次数,降低数据传输延迟,从而提升AI 训练效率;2)AI 推理的“模型参数仓库”:推理的“模型参数仓库”:训练后的数据本质上是一大堆的参数,HBM可容纳更为复杂的模型,方便加速器推理时调用,减少数据搬运时间,提升 AI 推理效率。作为作为 AI 芯片芯片的核心组件之一,的核心组件之一,HBM 的需求能见度高的需求能见度高,展望未来,我们认为展望未来,我们认为单卡单卡 HBM 堆堆栈数目增多、层数增高和迭代趋势已初
35、见端倪栈数目增多、层数增高和迭代趋势已初见端倪。GTC 2024 上英伟达发布新一代架构Blackwell 及 B200 GPU,通过搭载 8 颗 HBM3E 实现 192GB 内存容量和 8TB/s 的带宽,对比上一代 H200(6 颗 HBM3E,内存容量 141GB,带宽 4.8TB/s)在内存/带宽上提升36.2%/66.67%。除去英伟达,除去英伟达,AMD、英特尔、英特尔和云厂商自研和云厂商自研 ASIC 也呈现相同趋势:也呈现相同趋势:1)AMD:2023 年 6 月 AMD 发布的 MI300X 搭载 8 颗 12 层 HBM3 实现 192GB 内存容量和 5.3TB/s带宽
36、,对比上一代 MI250X(8 颗 HBM2E,内存容量 128GB,带宽 3.2TB/s)在内存/带宽上提升 50%/65.6%;2)谷歌:谷歌:2023 年 12 月 6 日谷歌公布 TPU v5p 性能参数,配置 95GB HBM3,对比上一代 TPU v5e(16GB HBM2/2E)在 GPT3-175B 模型上训练速度提升近50%;3)AWS:2023 年 12 月 7 日 Digitimes 援引韩媒 Digital Times 消息,AWS 于年度大会 re:Invent 2023 公开的 Trainium 2 芯片搭载 4 颗 12 层 24GB HBM3,对比上一代Trai
37、nium 32GB HBM2E 容量提升 200%;4)英特尔:英特尔:2024 年 4 月 9 日英特尔发布 Gaudi 3,搭载 8 颗 16GB HBM2E,实现 3.7TB/s 带宽,对比上一代 Gaudi 2(6 颗 16GB HBM2E)内存容量提升 33%。截至 2024 年 5 月 12 日美光估值为 2.60 x Forward PB,超过上一轮上行周期(21 年,2.0 x Forward PB)估值峰值。14 年以来美光估值曾经历三次峰值,分别受益于:移动互联网普及(14 年,2.8x Forward PB,3.7x TTM PB)、上云趋势带来的服务器需求和加密货币潮(
38、18年,1.7x Forward PB,3.1x TTM PB)以及疫情居家办公带来的短期需求激增(21 年,2.0 x Forward PB,2.65x TTM PB):免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。7 美光科技美光科技(MU US)图表图表1:美光科技美光科技 TTM PB 估值周期图估值周期图 资料来源:公司公告、Bloomberg、TrendForce、Business Quant、华泰研究 (1)2014 年年:12-14 年移动互联网普及带动智能手机和平板电脑销售量快速增长,根据 Gartner 2015 年数据,11-14 年全球智能手机销售量同比增
39、长均超 28%,CAGR 38.2%。下游终端需求带动全球半导体销售额上行,根据WSTS 历史数据及DRAMeXchange 11-15年每季度统计,本轮上行周期历时约 33 个月,全球半导体销售额自 12Q1 谷底波动上升至14Q3 峰值,12-14 年期间全球半导体销售额涨幅 15%,其中 DRAM 和 NAND 销售额涨幅均超 70%。FY14 美光营收 164 亿美元,同比增长 80.3%,FY12-14 期间营收增长 98.7%,主要系美光收购尔必达(Elpida)迅速扩张 DRAM 市场份额,以及智能手机和平板电脑出货扩增拉动美光 NAND Flash 营收增长。(2)2018 年
40、年:16 下半年到 18 年,企业上云趋势带动服务器需求高速增加,叠加加密货币潮带动的矿机需求,全球半导体行业迎来新一轮上行周期,DRAM 及 NAND 产品领涨显著。根据 IDC 和 Gartner 16-18 年季度统计数据,16-18 年全球服务器出货量和 ASP 增长带动营收涨幅达 56%,18Q4 出货量近 350 万台,同比增长 8.5%。根据 Coinmarketcap 17年 12 月 31 日数据,2017 年虚拟货币市场总值达 5724.8 亿美元,全年累计增长 3028%,比特币(BTC)价格上涨 13 倍,一度突破 20089 美元。以太坊(Ethereum)的数字代币
41、以太币 2017 年涨幅达 111%,其采用名为 Ethash 的硬内存(memory-hard)算法,要求在挖矿过程中频繁地从一个大型数据集(称为 DAG)中读取数据,该操作主要受到内存带宽,加上当时还采用 Proof of Work(POW)计算,故拉动 GPU 和存储的热度提升。根据WSTS 历史数据及 DRAMeXchange 16-19 年每季度统计,全球半导体销售额 16-18 年涨幅 38%,其中 DRAM 和 NAND 销售额涨幅分别为 145%和 63%,而本轮上行周期历时约27 个月。FY18 美光营收 304 亿美元,同比增长 49.5%,FY16-18 期间营收增长 1
42、45.1%,主要系两年间下游需求使得 DRAM 市场供应紧俏,ASP 持续保持高位。(3)2021 年年:2020 年开始新冠疫情的居家办公场景带来短期消费电子产品(智能手机、PC 等)需求的快速增长。根据 Gartner 2019-2023 年数据,2021 年全球智能手机销售量同比增长6.1%,为19-23年间唯一实现同比增长的年份,而全球PC出货量同比增长20.2%,为19-23年间唯一实现两位数增长的年份。根据WSTS 历史数据及DRAMeXchange 20-22年统计,全球半导体销售额自 20Q3 起实现约 20 个月的连续环比增长,期间涨幅 34%,21年全球 DRAM/NAND
43、 销售额同比增长 42%/21%。FY21 美光营收 277 亿美元,同比增长29.3%,其中 DRAM 营收同比增长 38%,NAND 营收同比增长 14%。本轮短期上行美光增长不及行业,主要系:1)20 年底美光 DRAM 工厂断电、中国台湾地震导致其 DRAM 产能损失;2)20-21 年美光 NAND 扩产对比三星、铠侠等竞争对手较为保守,同年海力士收购英特尔NAND业务份额赶超美光。疫情带来的短期需求于22下半年见顶,22下半年至23Q3期间消费电子需求疲软,AI 等新的增长点尚未成熟,半导体市场处于下行周期。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。8 美光科技美
44、光科技(MU US)我们认为我们认为 24 年内存行业迈入新一轮年内存行业迈入新一轮上上行周行周期,由期,由 AI 浪潮驱动,并将浪潮驱动,并将受益于受益于 AI 芯芯片及片及 AI应用应用普及普及所带来的所带来的中长期增长中长期增长,跟,跟 14 年的逻辑类似,而年的逻辑类似,而并非如同加密货币潮和疫情带来的并非如同加密货币潮和疫情带来的短期需求激增,因此我们认为美光有望借助短期需求激增,因此我们认为美光有望借助 AI 东风东风,估值应往,估值应往 2014 年水平靠拢年水平靠拢,甚至突,甚至突破。破。我们预计FY24/25/26公司营收分别为251/404/449亿美元,同比为61.3%/
45、61.2%/11.1%。具体而言:DRAM 业务:业务:我们预计 DRAM 业务 FY24/25/26 营收为 178/278/320 亿美元,对应同比为62.4%/56.2%/15.1%,主要由 HBM 的量价齐升带动,叠加 AI 手机、AI PC 和 AI 服务器的DRAM 需求。1)HBM 受惠于受惠于 AI 芯芯片需求和设计进化片需求和设计进化,美光,美光作为后起之秀,作为后起之秀,通过通过 1-HBM3E 追赶市场追赶市场份额份额:我们认为,随着 AI 芯片需求的增加和在设计上的进化,更多的 HBM 将更紧密的搭载在 AI 芯片周边,在 AI 训练和推理时增加内存和降低延时。目前,H
46、BM3/3E 市场已打破“独供”,由 SK 海力士、三星和美光三家割据:SK 海力士原为英伟达 HBM3 独供,率先敲定英伟达 HBM3E 商单,24 年 3 月 19 日宣布开始 8 层 HBM3E 量产,24Q2 业绩会公司宣布 12 层 HBM3E 将于 24Q3 完成开发,随即向客户送样;三星于 23H2 宣布量产 HBM3 Icebolt(8/12 层堆叠)并确认供货 AMD MI300 系列,随后三星加速产品迭代并积极拓展客户,GTC 2024 期间展示其 12 层 36GB HBM3E,英伟达 CEO Jensen Huang 会上于三星12 层 HBM3E 旁签下“Jensen
47、 Approved”,确认该产品正在通过英伟达效能验证,Digitimes 24 年 4 月报道三星 HBM3E 测试已近尾声,最快 24Q2 开始供货英伟达,相较之前市场预期的24H2提前。相比之下,美光并非HBM3/3E的先行者,公司跳过HBM3直接研发HBM3E,23 年 7 月,美光宣布与台积电 3D-Fabric 联盟,推出 1-制程的 HBM3E,并于 24 年 2 月率先宣布实现量产,确认供货英伟达H200并于24年3月22日确认出样12层36GB HBM3E,预期 25 年量产。通过测算存储厂商 HBM 产线晶圆投入量和台积电先进封装产量,我们认为 24/25 年 HBM3/3
48、E 供需缺口约为 5.4%/4.1%。美光作为后起之秀,HBM 产能相较 SK 海力士和三星仍显不足,主要是承接两者溢出的订单。根据 FY24Q2 业绩会,美光管理层对 HBM3E 前景乐观,重申 24 年 HBM3E 产能已售罄,并正在接受除英伟达之外客户验证。公司目标 FY24 HBM3E 的营收为数亿美元,而DRAM 和整体毛利率将于 FY24Q3 开始改善。相较 23 年约 3-10%的市场份额,公司预计25 年 HBM 的市占率将与其在 DRAM 的市占率平齐(约 20%),将带来较高的增长空间。我们认为通过供应英伟达 H200,美光 HBM3E 现已具有初步客户基础,若能按照计划在
49、FY24-25 实现 HBM3E 扩产和产品验证,进一步满足下游客户需求,将显著受惠于高速增长的 HBM 市场,并凭借 HBM 产品更高的 ASP 带来利润率的优化。2)传统)传统 DRAM 供应商库存已降低,以供应商库存已降低,以 DDR5 为代表的为代表的 AI 相关内存需求则受惠于相关内存需求则受惠于 AI 手机、手机、AI PC 和和 AI 服务器服务器渗透率提升带来的商机:渗透率提升带来的商机:根据 Digitimes 24 年 3 月 12 日报道并结合美光 FY24Q2 业绩会信息,DDR5 供应较为吃紧,DDR5 在 24 年初仍处于供不应求,24Q1约有 3%的供给缺口,伴随
50、存储厂商陆续恢复增产,预期 24Q2 起缺口收敛至 1%,24H2产能将持续开出,伴随 DDR5 在服务器和终端侧渗透率快速提升,下游需求可望消化新增产能,从而维持 DDR5 ASP 涨势。相较而言,DDR4 和 DDR3 等传统 DDR 方面,DDR4是 23 年上游原厂减产的重点,23Q3 DDR4 仍处于亏损出货状态,尽管下游库存水平逐渐恢复健康,短期内成熟制程产品(如中低端服务器和消费电子产品)需求增长并不强劲,故美光等主要供应商仍不倾向恢复产能,叠加 HBM 和 DDR5 需求增长产生 DRAM 产能排挤,整体将对 DDR4 和 DDR3 等传统 DRAM 保持积极的产能控制。免责声
51、明和披露以及分析师声明是报告的一部分,请务必一起阅读。9 美光科技美光科技(MU US)24Q2,短期内受,短期内受 4 月月 3 日日中国中国台台湾强震对供应链影响,湾强震对供应链影响,DRAM ASP 或见较大涨幅,或见较大涨幅,根据Digitimes 24 年 4 月 15 日至 17 日系列报道,该次地震对美光厂房和基础设施未造成永久影响,单季 DRAM 供应影响约为 4%-6%,鉴于 DRAM 厂商原先已有 24Q2 DRAM ASP 调升 10-15%规划,叠加地震影响,24Q2 美光 DRAM 合约价将调涨 25%,整体主流 DRAM合约价调涨约 20%。分应用场景来看分应用场景
52、来看来看,来看,PC 方面,方面,23 年年 PC 库存已基本出清,顺应新库存已基本出清,顺应新 CPU 机种逐渐转往机种逐渐转往DDR5 的趋势,下游的趋势,下游 DDR5 采购量或将继续上升。采购量或将继续上升。叠加微软将于 25 年 10 月 14 日开始停止支持 Windows 10 所带动,以及 AI PC 的崛起,PC DRAM 市场有望进一步迎来复苏。根据 IDC 24 年 2 月 7 日预测,AI PC 24 年出货量约为 50 万台,2027 年则有望突破 1670万台,3 年 CAGR 约为 222%。整体而言,PC 24Q1 出货量已基本恢复至 19Q1 水平,24H1
53、PC 市况已经逐步好转,虽然需求大规模增长尚未出现,但 24H2 PC 市场可望迎来进一步复苏。AI 服务器方面,我们认为,硬件设备的规模和性能是服务器方面,我们认为,硬件设备的规模和性能是 AI 大模型时代的必然要求大模型时代的必然要求,CPU+加加速器异构带动速器异构带动 DDR5 和和 HBM 需求高速增长需求高速增长。鉴于目前生成式 AI 主要以大参数模型路径实行,随着模型数量和所需处理的数据量增长,其训练与推理均需大量的计算能力与存储资源。展望 24 年,AI 基础设施将是重点投入领域,头部云厂商和互联网巨头加大 AI 领域资本开支,将进一步支撑 AI 服务器行情。IDC 23 年
54、12 月发布数据显示,23 年全球 AI 服务器市场规模达 211 亿美元,预计 2025 年达 317.9 亿美元,2023-2025 年 CAGR 22.7%。同时,AI 服务器自身需要处理一系列密切相关但要求各异的任务,包括数据预处理、模型训练、推理和后处理等,因此需要 CPU+加速器异构以灵活面对使用场景。AI 服务器搭载的 CPU 负责系统启动和维护以及系统各组件统筹协作等逻辑,在 AI 训练和推理中亦涉及数据预处理等通用计算场景。例如,AI 训练和推理的原始数据往往参差不齐,需要通过数据清洗、转换、特征工程等一系列流程,最终才能为系统所用,而这些任务涉及大量逻辑运算和内存操作,对处
55、理速度和时延要求较高,因此通常由 CPU 承担,需要更大带宽、更大容量的内存作为支撑,带动 DDR4 向 DDR5 迭代;而如前文所述,HBM 在 AI 训练和推理中同样扮演重要角色,AI 服务器的加速器搭配 HBM 已成标配,逻辑芯片频繁读取片外HBM 进行内存调度。根据美光 FY24Q2 业绩会,一台 AI 服务器的 DRAM 容量是通用服务器的 6-8 倍,因此快速增长的 AI 服务器需求将带动 DRAM 需求的高速增长。通用服务器方面,通用服务器方面,24 年或迎来换机潮,产品组合将向年或迎来换机潮,产品组合将向 DDR5 倾斜。倾斜。根据 Digitimes 24 年 2月 1 日报
56、道,业界预期 24 上半年服务器需求“淡季不淡”,北美云厂商除了持续采购 AI 服务器,也开始对通用型服务器进行新一轮采购,加速英特尔 Eagle Stream 和 AMD Geona等新平台导入,其中以谷歌和微软采购力度较大。根据 24 年 2 月 Yole Intelligence 预测,未来五年内,DDR4 份额将进一步被 DDR5 取代。到 2027 年,DDR5 将占 DRAM 总出货量的 80%以上。AI 手机方面,手机方面,Galaxy S24 带动带动 AI 手机热潮方兴未艾手机热潮方兴未艾,端侧,端侧 AI 功能强化对功能强化对 LPDDR5 需求需求。美光 FY24Q2 业
57、绩会透露 AI 手机相较传统非 AI 旗舰机型多出 50%-100%的 DRAM 需求,而鉴于手机功耗限制,因此带动 LPDDR5X 需求,预测 24 年手机出货量同比增长 3-5%。根据 Digitimes 23 年 3 月援引 IDC 预测,2024 年全球 AI 手机出货量或增至 1.7 亿台,占手机市场出货比重达 15%。面向面向 DDR5 商机,美光于商机,美光于 CES 2024 上展示基于上展示基于 LPDDR5X 的的 LPCAMM2 内存模组,相内存模组,相较较 DDR5 DIMM 在带宽和能效表现上更具优势,能更有效解决在带宽和能效表现上更具优势,能更有效解决 AI PC
58、和和 AI 手机手机的内存问的内存问题题。该款 LPCAMM2 已获 Intel、联想和仁宝等业界支持,预计 24 上半年投产。我们预计公司的 1-16GB DDR5、LPDDR5X 和 LPCAMM2 作为面向端侧 AI 的内存方案将显著受益。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。10 美光科技美光科技(MU US)NAND 业务:业务:我们预计 NAND 业务 FY24/25/26 营收为 69/122/125 亿美元,对应营收同比为 64.2%/77.1%/2.4%。1)伴随下游客户库存水平正常化,)伴随下游客户库存水平正常化,美光美光对对FY24 NAND和和SS
59、D趋势较乐观。趋势较乐观。根据Bloomberg Intelligence 22-24 年数据统计,NAND ASP 下降 12 个月后于 23Q2 触底,于 23Q3 开始回升。而根据 TrendForce 2024 年 3 月报道,供应商正在推动提高 NAND Flash 的合同价格,24Q1 涨幅约为 23-28%,Q2 NAND Flash 采购量将较 Q1 小幅下滑,但整体市场氛围持续受供应商库存降低,以及减产效应影响,预估 24Q2 NAND Flash 合约价将上涨约1318%。需求方面,根据公司 FY24Q2 业绩会,预期未来数年 NAND 需求 CAGR 约为21%-23%,
60、而公司计划 FY24 NAND 供给策略维持保守,着力于进一步优化库存,缩短周转天数,预计 NAND 需求增长将显著高于供给。2)232层层 NAND布局布局数据中心数据中心 SSD、AI PC和和大容量智能手机:大容量智能手机:公司基于232层TLC NAND Flash,分别于 2023 年 5 月、10 月和 12 月推出 6500 ION NVMe SSD、7500 NVMe SSD和 3500 NVMe SSD。其中,6500 SSD 提供 30TB 容量,打破 QLC 和 TLC 界限,以 QLC的价格实现 TLC 的性能,FY24Q2 美光业绩会透露该款 SSD 营收环比增长逾
61、50%,而 7500 SSD 和 3500 SSD 分别是面向数据中心和用户端的另两款解决方案。Digitimes 24 年 4 月 26 日报道提及,高层 QLC NAND 在 PC 中渗透率不断提高,AI PC 搭载 LLM 和图片/影片生成模型,将耗费大量存储容量,同时,由于用户不会立即删除生成的大量图片和视频,带来 AI PC 所需存储空间显著提升,同时出于降低存储成本考量,QLC NAND 导入 PC 成为趋势。24 年 4 月公司宣布率先量产 232 层 QLC NAND,并推出面向用户端的 2500 NVMe SSD,现已向 PC OEM 送样。同时,根据 Digitimes 2
62、4 年 1 月报道,业界预期 24 年 QLC NAND 将导入大容量存储的手机新品,随着影像存储需求增加及 QLC NAND 更低的单位存储成本,iPhone 及部分国产手机品牌(如 Oppo)已进入大容量 1TB 机种采用 QLC NAND 的产品验证阶段。我们预计24-25 年 AI 手机“DRAM+NAND”配合升级趋势和大容量机种陆续上架,有望带动美光NAND UFS 3.1(176 层 NAND)/UFS 4.0(232 层 NAND)需求增长。美光美光 FY24Q2 营收和利润均超预期,净利润实现连续营收和利润均超预期,净利润实现连续 5 个个季度亏损后首度扭亏季度亏损后首度扭亏
63、。美光 FY24Q2 营收 5824 百万美元,同比+58%,环比+23%,超彭博一致预期的 5354 百万美元;Non-GAAP 净利润 476 百万美元,超彭博一致预期的-266 百万美元;Non-GAAP EPS 0.42 美元,超彭博一致预期的-0.24 美元。受益于 ASP 恢复和高阶产品销量提升,美光经调整毛利率为 20%,超彭博一致预期的 13.6%,环比+19.2pct;经调整净利率为 3.5%,实现扭亏,超彭博一致预期的-5.7%,环比+30.3pct。公司指引 FY24Q3 营收中位 66 亿美元,超彭博一致预期的60亿美元,毛利率/净利率为26.5%/15.0%,超彭博一
64、致预期的20.9%/4.6%,主要系 HBM 和 DDR5 营收贡献将带来利润率持续优化。公司预计公司预计 24 年年 DRAM 需求增速约为需求增速约为 15-17%,NAND 约为约为 21-23%。FY24Q2 美光 DRAM 营收为 4158 百万美元,同比+53%,环比+21%,出货量环比低个位数上升,ASP 环比上升 17-19%;NAND 营收为 1567 百万美元,同比+77%,环比+27%。公司预计 24 年 DRAM 需求增长率将为 15-17%,NAND 将为 21-23%。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。11 美光科技美光科技(MU US)图
65、表图表2:公司营收按部门划分(公司营收按部门划分(FY,百万美元),百万美元)图表图表3:公司营收分部门同比增速(公司营收分部门同比增速(FY,%)资料来源:公司公告、华泰研究 资料来源:公司公告、华泰研究 图表图表4:公司营收按技术划分(公司营收按技术划分(FY,百万美元),百万美元)图表图表5:公司营收分技术同比增速公司营收分技术同比增速(FY,%)资料来源:公司公告、华泰研究 资料来源:公司公告、华泰研究 图表图表6:美光分技术营收占比(美光分技术营收占比(%)资料来源:公司公告、华泰研究 58%49%38%29%27%28%32%34%30%26%42%47%46%47%47%39%2
66、2%-33%-18%-11%-1%19%-40%-20%0%20%40%60%80%01,0002,0003,0004,0005,0006,0007,0008,0009,00010,00019Q119Q219Q319Q420Q120Q220Q320Q421Q121Q221Q321Q422Q122Q222Q322Q423Q123Q223Q323Q424Q124Q2CNBUMBUEBUSBU其他业务毛利率(%)12%-35%-48%-56%-45%-17%7%59%29%34%49%26%34%31%18%-23%-49%-60%-64%-59%-1%59%62%3%-33%-26%-34%-22
67、%30%4%3%44%31%29%27%4%-2%-20%-66%-50%-58%-20%97%69%12%-4%-22%-24%-21%-13%-4%-7%10%34%64%108%51%37%30%-4%-18%-32%-36%-34%4%28%-17%-19%-29%-32%-15%-15%25%8%-6%-2%0%32%26%38%33%-26%-41%-57%-53%-17%-4%79%-80%-60%-40%-20%0%20%40%60%80%100%120%19Q119Q219Q319Q420Q120Q220Q320Q421Q121Q221Q321Q422Q122Q222Q322
68、Q423Q123Q223Q323Q424Q124Q2CNBUMBUEBUSBU16%-21%-39%-42%-35%-18%14%24%12%30%36%37%33%25%16%-20%-47%-53%-57%-40%16%58%-80%-60%-40%-20%0%20%40%60%80%01,0002,0003,0004,0005,0006,0007,0008,0009,00010,00019Q119Q219Q319Q420Q120Q220Q320Q421Q121Q221Q321Q422Q122Q222Q322Q423Q123Q223Q323Q424Q124Q2DRAMNAND其他(主要为3
69、D XPoint和NOR)总营收(YoY)18%-28%-45%-36%-41%-26%6%29%17%44%52%39%38%29%15%-21%-49%-52%-57%-43%21%15%-2%-25%-21%-14%9%51%27%11%9%9%29%19%19%26%-14%-41%-55%-56%-29%12%5%-8%-7%4%-30%-33%-35%-42%-43%-29%-13%37%55%-23%-49%-31%-31%-22%-19%-66%-55%-80%-60%-40%-20%0%20%40%60%80%19Q119Q219Q319Q420Q120Q220Q320Q42
70、1Q121Q221Q321Q422Q122Q222Q322Q423Q123Q223Q323Q424Q1DRAM(YoY)NAND(YoY)其他(YoY)74%71%71%70%67%64%66%72%70%71%73%74%73%73%73%72%69%74%71%69%73%71%21%24%23%25%28%32%31%25%27%26%24%24%24%25%26%25%27%24%27%30%26%27%5%5%6%5%5%4%3%3%2%2%2%3%3%1%1%2%4%2%2%1%1%2%0%10%20%30%40%50%60%70%80%90%100%19Q119Q219Q319Q
71、420Q120Q220Q320Q421Q121Q221Q321Q422Q122Q222Q322Q423Q123Q223Q323Q424Q124Q2DRAMNAND其他 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。12 美光科技美光科技(MU US)图表图表7:美光美光 Non-GAAP 利润率(利润率(%)资料来源:公司公告、华泰研究 图表图表8:美光分地区营收占比(美光分地区营收占比(%)资料来源:公司公告、华泰研究 59%50%39%31%27%29%33%35%31%33%43%48%47%48%47%40%23%-31%-16%-9%1%20%49%36%23%14%1
72、2%11%18%21%17%20%32%37%35%35%36%25%-2%-56%-39%-30%-20%4%44%34%25%13%11%11%17%20%16%18%29%34%32%31%34%24%-1%-56%-42%-29%-22%8%-80%-60%-40%-20%0%20%40%60%80%19Q119Q219Q319Q420Q120Q220Q320Q421Q121Q221Q321Q422Q122Q222Q322Q423Q123Q223Q323Q424Q124Q2毛利率营业利润率净利润率55.9%56.3%53.2%48.4%43.9%52.1%50.2%14.2%12.9%
73、11.5%17.1%23.8%20.1%17.4%7.6%11.9%15.4%10.9%8.9%10.8%14.0%5.1%4.2%4.1%6.5%6.0%5.5%6.4%5.3%4.8%4.4%5.4%5.1%4.0%4.8%4.4%7.0%5.8%6.9%8.4%9.3%5.4%0%10%20%30%40%50%60%70%80%90%100%20020202120222023美国中国台湾中国大陆日本其他亚太地区欧洲中国香港其他地区 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。13 美光科技美光科技(MU US)HBM:AI 芯芯片性能片性能催生内存需
74、求,后起之秀催生内存需求,后起之秀美光该美光该如何布局?如何布局?我我们认为,在们认为,在 AI 芯芯片需求强劲的背景下,伴随着英伟达和片需求强劲的背景下,伴随着英伟达和 AMD 积极的积极的 AI GPU 迭代蓝图,迭代蓝图,以及头部云以及互联网厂商考虑削减以及头部云以及互联网厂商考虑削减 TCO、提升研发可控性及集成自身生、提升研发可控性及集成自身生态圈态圈而积极推进而积极推进自自研芯研芯片(片(ASIC 为主),为主),HBM 的容量、效能和功耗要求将不断提升,的容量、效能和功耗要求将不断提升,HBM 的的需求量将受需求量将受AI 芯芯片的需求增长拉动。我们预测,片的需求增长拉动。我们预
75、测,HBM 产品在产品在 24-25 年将出现年将出现需求缺口,叠加需求缺口,叠加 HBM 的的复杂工艺需求(复杂工艺需求(TSV 硅穿硅穿孔、键合堆叠孔、键合堆叠和后续以和后续以 CoWoS 封装与封装与 AI 芯芯片搭载一起),将带片搭载一起),将带来相对传统来相对传统 DRAM 更高的更高的 ASP。伴随。伴随 HBM 产品在美光产品在美光 DRAM 中营收占比提升,我们预中营收占比提升,我们预计公司营收和利润率将计公司营收和利润率将得到得到优化。优化。AI 芯芯片存算发展不同步,内存瓶颈催生片存算发展不同步,内存瓶颈催生 HBM 需求需求 在在 AI 训练场景中,加速器(如训练场景中,
76、加速器(如 GPU)多数利用片外内存,需要频繁读取片外)多数利用片外内存,需要频繁读取片外 DRAM 进行进行内存调度。内存调度。一方面,训练数据(如图像、文本和视频)需从 SSD 等外部储存器经由 CPU初步处理,分批次(batch)加载进内存,等待加速器调用。相较于加速器直接从外部存储器调用数据,HBM 等内存“中转站”缩短了数据传输的物理距离,同时利用其支持更高速数据传输的性质,提升 AI 训练效率;另一方面,训练过程中的模型参数、正向传播的中间状态(activation)、优化器状态以及反向传播的梯度(gradient)也需存入内存,方便加速器在计算和优化过程中快速访问和读写。根据 A
77、mir Gholami 21 年 3 月发表的AI and Memory Wall,相较模型参数,模型训练的中间状态等需要 3-4 倍的内存空间,其中正向传播的中间状态为反向传播计算梯度所必须。图表图表9:AI 训练中的训练中的数据数据传输路径示例:从外部存储到片外内存,再到计算核心传输路径示例:从外部存储到片外内存,再到计算核心 资料来源:Assaf Pinhasi(2021.6):Feeding the Beast:The Data Loading Path for Deep Learning Training、Rui Zhang(2021.9):Democratic learning:h
78、ardware/software co-design for lightweight blockchain-secured on-device machine learning、华泰研究 AI 模型训练可视作数据的抽象和压缩,数据量的增大需要提升模型的复杂度(如参数量)模型训练可视作数据的抽象和压缩,数据量的增大需要提升模型的复杂度(如参数量)来“消化”训练集中包含的信息。鉴于内存在来“消化”训练集中包含的信息。鉴于内存在 AI 训练中的作用,大型训练中的作用,大型 AI 模型训练基于庞模型训练基于庞大的数据量,其大的数据量,其自身复杂的网络结构自身复杂的网络结构亦亦包含数十亿个参数包含数十亿
79、个参数,对内存容量和带宽提出挑战:,对内存容量和带宽提出挑战:1)如果内存不足,加速器调用数据就需要频繁访问传输速率较慢的大容量存储器(如 SSD),带来算力浪费和延迟;2)除训练数据外,模型训练的中间状态等信息同样需要存入内存,因此内存不足将限制模型的复杂度上限,从而影响模型性能和迭代;3)“中转站”定位对其与外部存储器和加速器之间的数据传输速率提出要求,HBM 作为内存提供更高的带宽,提升存算间通信效率,实现单次更大批量(batch size)的数据传输,从而降低延迟,并提提升算力利用率和训练效率。升算力利用率和训练效率。计算计算能力与带宽能力之间的差距致使内存容量和带宽难以跟上能力与带宽
80、能力之间的差距致使内存容量和带宽难以跟上 AI 硬件的硬件的计算计算速度,成为限速度,成为限制制 AI 芯芯片性能发挥的主要瓶颈,即“内存墙”(片性能发挥的主要瓶颈,即“内存墙”(Memory Wall)。)。尽管内存容量和带宽在尽管内存容量和带宽在AI 训练训练中中地位重要,但地位重要,但 AI 芯芯片“存”和“算”的性能提升并不同步。片“存”和“算”的性能提升并不同步。根据 Amir Gholami发表的AI and Memory Wall,2018-2021 年,Transformer 模型(LLM 背后的算法)大小每两年增长 410 倍,而同时间 AI 加速卡内存容量每两年仅增长 2
81、倍。同时,主流加速卡 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。14 美光科技美光科技(MU US)的算力增长和内存方案/传输协议的带宽增长也并不同步。1996-2023 近 20 年间,AI 芯片峰值算力提升约 60000 倍(平均每两年提升 3 倍),而同时期 DRAM 内存带宽提升为 100倍(平均每两年提升 1.6 倍),芯片/设备间数据传输协议(如 PCIe 和 NVLink)带宽提升仅30 倍(平均每两年提升 1.4 倍)。因此因此,高存储密度和高带宽的特性让,高存储密度和高带宽的特性让 HBM 成为了成为了 AI 训练场景训练场景下内存容量和带宽瓶下内存容量和带
82、宽瓶颈的颈的解决方案,作为解决方案,作为 AI 芯芯片的核心组件片的核心组件之一得到广泛应用。之一得到广泛应用。而除去训练,内存容量和带宽对而除去训练,内存容量和带宽对 AI 推理同样重要,推理同样重要,对响应时间的需求、图像生成和视频生对响应时间的需求、图像生成和视频生成提高了推理计算需求的标准成提高了推理计算需求的标准:1)容量上,)容量上,训练之后的 AI 模型本质上是优化之后的参数,根据 The Next Platform 24 年 2 月新闻,一个参数量 1750 亿的 GPT-3 推理时需要 175GB的内存容纳模型参数。加速器搭配大容量 HBM 方案便于模型整体置入内存,方便加速
83、器推理时调用,减少设备间数据搬运时间,提升 AI 推理效率;2)带宽上,带宽上,HBM 的高带宽支持单次更大批量数据传输,降低推理延迟,同时亦可以满足推理场景下更多的高并发请求(如META的智能推荐系统)。根据三星24年2月新闻,其12层HBM3E相比上一代8层HBM3,在推理场景下支持并发用户数提升 11.5 倍。图表图表10:内存带宽需求伴随模型复杂度快速提升(内存带宽需求伴随模型复杂度快速提升(GB/s)图表图表11:AI 模模型复杂度提升和型复杂度提升和 AI 芯芯片内存容量提升并不同步片内存容量提升并不同步 资料来源:Semianalysis、华泰研究 资料来源:Amir Ghola
84、mi(2024.3):AI and Memory Wall、Github、华泰研究 图表图表12:主流加速卡算力增长和内存方案主流加速卡算力增长和内存方案/传输带宽增长并不同步传输带宽增长并不同步 图表图表13:GPU 内存上限带来“内存墙”问题内存上限带来“内存墙”问题 资料来源:Amir Gholami(2024.3):AI and Memory Wall、Github、华泰研究 资料来源:Amir Gholami(2024.3):AI and Memory Wall、Github、华泰研究 内存迭代提升内存迭代提升 AI 芯芯片性能,片性能,HBM 相较传统显存实现容量和带宽相较传统显存
85、实现容量和带宽倍增倍增 在算力接近的情形下,在算力接近的情形下,AI 芯芯片可以通过扩容内存和带宽提升模型训片可以通过扩容内存和带宽提升模型训练和练和推理性能,而推理性能,而内存内存迭代对迭代对 AI 芯芯片性能的提升可片性能的提升可以英伟达以英伟达 H200 为例。为例。23 年 11 月全球超算大会(SC23)上,英伟达推出的 H200 搭载 6 颗 HBM3E,内存达 141GB,带宽 4.8TB/S。作为 H100(搭载6 颗 HBM3,内存达 80GB)的升级款,H200 依然采用 Hopper 架构和台积电 4 纳米工艺。两者的算力指标基本相同,但在GPU核心数和频率保持不变的情况
86、下,仅通过内存从HBM3向HBM3E的迭代,就能实现在Llama2和GPT-3等大语言模型推理性能40%-90%的提升。对比美光 GDDR6X 和 HBM3E,同样 24GB 内存容量,前者搭载于英伟达 GeForce RTX 3080Ti/3090Ti 显卡,显存位宽 384 位,提供 76-96 GB/s 的带宽,后者则面向 AI 训练场景,显存位宽 1024 位,提供 1.2TB/s 的带宽,为 GDDR6X 的 13-16 倍。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。15 美光科技美光科技(MU US)图表图表14:英伟达英伟达 H100 与与 H200 性能对比性
87、能对比 H200 SXM H100 SXM FP64 34 TFLOPS 34 TFLOPS FP64 Tensor Core 67 TFLOPS 67 TFLOPS FP32 67 TFLOPS 67 TFLOPS FP32 Tensor Core 989 TFLOPS 989 TFLOPS BFLOAT16 Tensor Core 1,979 TFLOPS 1,979 TFLOPS FP16 Tensor Core 1,979 TFLOPS 1,979 TFLOPS FP8 Tensor Core 3,958 TFLOPS 3,958 TFLOPS INT8 Tensor Core 3,9
88、58 TFLOPS 3,958 TFLOPS 内存内存 141 GB(HBM3e)80GB(HBM3)内存带宽内存带宽 4.8 TB/s 3.35 TB/s 资料来源:英伟达官网、华泰研究 图表图表15:DDR、GDDR 和和 HBM 对比:对比:HBM 通过堆叠实现内存容量和带宽倍增通过堆叠实现内存容量和带宽倍增 DDR 及及 HBM 型号型号 推出时间推出时间 带宽带宽 内存容量内存容量 典型应用场景典型应用场景 DDR4 2014 25.6 GB/s 2 GB 个人电脑和服务器 DDR5 2021 51.2 GB/s 2/3 GB 个人电脑和服务器个人电脑和服务器 GDDR6 2018
89、64 GB/s 2 GB 个人电脑、游戏和 AI GDDR6X 2020 96 GB/s 2 GB 个人电脑、游戏和个人电脑、游戏和 AIAI HBM 2013 128 GB/s 2 GB 个人电脑、游戏和 AI HBM2 2016 307 GB/s 4/8 GB AI GPU HBM2E 2020 460 GB/s 4/16 GB AI GPU HBM3 2022 819 GB/s 16/24 GB AI GPU HBM3E 2023 1.28 TB/s 24/32 GB AI GPU HBM4*2025-2026 1.5 TB/s 64 GB AI GPU *注:HBM4 信息综合于美光、
90、三星和海力士 HBM4 路线图 资料来源:美光官网、三星官网、海力士官网、英伟达官网、华泰研究 面向面向 ASIC 新蓝海,新蓝海,HBM 同样蓄势待发同样蓄势待发 我们在我们在 2024 年年 2 月月 14 日的日的竞争格局千变万化,英伟达欲切入专用芯片设计市场竞争格局千变万化,英伟达欲切入专用芯片设计市场的报的报告中提出,告中提出,AI 芯片芯片市场竞争日趋白热化,除却市场竞争日趋白热化,除却 GPU 等通等通用型用型芯片芯片,ASIC 专用专用芯片芯片通过更通过更低的低的 ASP、在特定场景提供更高效和更低功耗、以及更灵活的设计周期,将是通用型、在特定场景提供更高效和更低功耗、以及更灵
91、活的设计周期,将是通用型 GPU的互补或替代。的互补或替代。伴随 AI 模型多元化和算法日趋成熟,ASIC 作为“算法的物理呈现”,也将适配各大厂商的差异化模型需求,承接部分算力。头部云及互联网厂商考虑到削减 TCP、提升研发可控性及集成自身生态圈等,均在推进自研芯片,而根据路透社与彭博 24 年 2 月报道,英伟达也正在建立一个专注于为云计算、AI 等领域设计 ASIC 专用芯片的新业务部门。相较以算力作为核心护城河的相较以算力作为核心护城河的 GPU,ASIC 专用专用芯片芯片并不以算力见长,但并不以算力见长,但随着随着芯片芯片设计的设计的进化,进化,ASIC 能通过增加能通过增加 HBM
92、 内存等有效提升性能并降低延时内存等有效提升性能并降低延时,从而弥补“算力差距”。,从而弥补“算力差距”。根据谷歌 23 年 12 月发布的 TPUv5p 参数及英伟达 H100 参数,尽管对比 INT8 算力,TPUv5p 仅为 H100 SXM 的 23%(918TOPS vs.3958TOPS),但特定场景下(如 GPT-3 175B 训练)二者已可基本对标。其中,H100 SXM 搭载 80GB HBM3,带宽 3.35TB/s;谷歌 TPUv5p 搭载 95GB HBM2e,带宽 2765GB/s。另外,算法的进步也可有效降低对芯片算力需求,例如特斯拉 FSD 已采用 FP8,而不需
93、采用传统的 FP16。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。16 美光科技美光科技(MU US)图表图表16:主流主流 AI 芯片芯片参数及内存配置:参数及内存配置:伴随伴随芯片芯片迭代,算力提升、内存扩容和带宽拓展是大势所趋,迭代,算力提升、内存扩容和带宽拓展是大势所趋,HBM 成为成为 AI 芯片芯片标配标配 资料来源:各公司 AI 芯片公告、TechPowerUp、Trendforce、NextPlatform、Digitimes、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。17 美光科技美光科技(MU US)HBM 核心工艺:核心工艺:T
94、SV 和键合堆叠和键合堆叠 HBM 在工艺上是由高性能在工艺上是由高性能 DRAM 通过通过 3D 堆叠键合而成,其通过堆叠键合而成,其通过 TSV(Through Silicon Via,硅通孔)技术垂直连接多片,硅通孔)技术垂直连接多片 DRAM,从而获得多个单片的大容量。,从而获得多个单片的大容量。TSV 和键合堆叠和键合堆叠(bonding)是)是 HBM 的两大核心工艺,工艺精进是的两大核心工艺,工艺精进是 HBM 的迭代的基础:的迭代的基础:1)TSV 工艺:工艺:HBM1 到 HBM3E 的迭代实现了带宽从 128GB/s 到 1.2TB/s 近 10 倍增长,而带宽和数据传输速
95、率的提升需要单位面积上更多的 TSV 穿孔,对缩小 TSV 穿孔间距和穿孔直径提出更高要求;2)散热:)散热:HBM 迭代逐步提升堆叠层数和集成度的同时,也意味着单位面积内热量的增加。另外,芯片在垂直方向上的堆叠阻碍热量疏散,带来堆叠层数的散热瓶颈,而芯片堆叠键合的材料/键合方式的导热效率是散热关键;3)层数与高度:)层数与高度:将堆叠层数扩展到12 层以上,同时仍保持相同的总物理堆叠高度,需要降低单片 DRAM 的厚度,并尽量缩小DRAM 间距,而堆叠键合过程中的施压易造成芯片翘曲,影响成品良率。图表图表17:HBM 通过通过 TSV 垂直连接,以微凸点垂直连接,以微凸点作为键合接点作为键合
96、接点 图表图表18:TSV 垂直连接免去传统引线的复杂布线垂直连接免去传统引线的复杂布线 资料来源:海力士官网、华泰研究 资料来源:海力士官网、华泰研究 CoWoS 成成 HBM 搭载关键,英特尔搭载关键,英特尔 EMIB 能否接力?能否接力?HBM 透过透过 CoWoS 2.5D 封装将自身的封装将自身的 DRAM 堆栈(堆栈(Stack)与)与 GPU 等等逻辑逻辑芯片芯片集成在中集成在中介层(介层(Interposer)上,)上,增加内存和计算芯片间的链路数量,缩短内存与逻辑芯片传输的物理距离,并借助硅中介板的高速 I/O 接口形成“近存计算”架构,从而增加访存带宽、减少数据搬移次数,以
97、提升整体计算效率,节约频繁数据搬运带来的无用能耗。因此,相较于传统 DRAM(例如 GDDR Graphics Double Data Rate),HBM 拥有更高的内存密度和 I/O数量(1024 位的显存位宽),更加适应 AI 大模型训练场景。图表图表19:对比对比 GDDR5:HBM 和和逻辑逻辑芯片芯片封装于同一中介层封装于同一中介层 图表图表20:GDDR5 和和 HBM1 主要性能对比主要性能对比 资料来源:AMD 官网、华泰研究 资料来源:AMD 官网、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。18 美光科技美光科技(MU US)图表图表21:HBM
98、利用利用 2.5D 封装,本质上形成一种“近存计算”,缩封装,本质上形成一种“近存计算”,缩短数短数据传据传输的物理距离输的物理距离 资料来源:Joo-Young Kim(2022.7):Processing-in-Memory for AI From Circuits to Systems、华泰研究 第一代第一代 HBM 由由 AMD 与海力士合作研发,与海力士合作研发,已经采用硅中介层集成内已经采用硅中介层集成内存和存和逻辑逻辑芯片芯片,但局限但局限于成本问题,于成本问题,早期早期 HBM 并未得到广泛应用。并未得到广泛应用。根据 AMD HBM1 的访谈、相关演示材料和Chang-Chi
99、 Lee 于 2016 年在 IEEE 上发表的论文An Overview of the Development of a GPU with Integrated HBM on Silicon Interposer,2014-2015 年发布并量产的 HBM1 研发耗时 8 年,尽管彼时台积电尽管彼时台积电 CoWoS 工艺尚未成熟,但工艺尚未成熟,但 AMD 就已就已意识到需要通过硅中意识到需要通过硅中介介层使得存层使得存储和储和逻辑逻辑芯片芯片物理靠近(集成),以提升带宽和每瓦性能物理靠近(集成),以提升带宽和每瓦性能,HBM1 的中介层由 AMD和日月光、Amkor和UMC合作研发。AM
100、D并未披露HBM1的单片成本,但根据ANANDTech 2018 年 12 月报道,8GB HBM2 成本约 150 美元,硅中介层成本 25 美元,一张搭载 HBM2的 AMD RX Vega 56 零售价仅 400 美元,在未考虑先进封装成本下,HBM2 成本已占近 50%,同时,HBM2 成本对比同时期 8GB GDDR5 售价贵出约 3 倍,在 AI 大模型训练需求尚未迅速增长的背景下,早期 HBM 并未获得广泛采用。HBM2 由英伟达、三星和由英伟达、三星和台积电台积电合作合作研发,台积电研发,台积电 CoWoS 成为成为 HBM2 与与逻辑逻辑芯片芯片集成的集成的封装方案封装方案。
101、Semianalysis 在 23 年 7 月的分析指出,鉴于光刻设备的限制,一般芯片最大尺寸为 858 平方毫米(26mm x 33mm),而搭载 HBM 的 GPU 一般采用 HBM 内存环绕逻辑芯片的设计,所需硅中介层面积超过该上限,而台积电通过其十字线缝合技术使得硅中介面积可突破该限制,从而适应大尺寸设计需要。根据台积电 Shang Y.Hou 2017 年发布的论文Wafer-Level Integration of an Advanced Logic-Memory System Through the Second-Generation CoWoS Technology,HBM2
102、相较 HBM1 在尺寸上从 40 平方毫米增长到 92 平方毫米,适逢台积电迭代第二代 CoWoS,将硅中介层尺寸从 1 代的 800 平方毫米拓展到 2 代的 1200 平方毫米,同时 1 代 CoWoS 仅支持同质芯片间互连,而 2 代开始实现异质芯片互联(Memory-Logic),叠加测试中台积电 CoWoS 封装芯片对比其他封装方案更出色的性能表现,因此台积电 CoWoS 成为 HBM2 的封装方案。时至今日,台积电时至今日,台积电 CoWoS 仍然是仍然是 HBM 与与逻辑逻辑芯片芯片封装首选。封装首选。根据 Semianalysis 23 年 7月发布的AI Capacity C
103、onstraints-CoWoS and HBM Supply Chain一文,HBM1 至HBM3E 均采用 1024-bit 位宽,带来相较传统 DRAM 更高的 I/O 焊盘数(pad count),同时 HBM 与逻辑芯片集成要求更短的走线长度(trace length),高密度短连接在传统印制电路板(PCB Printed circuit board)或封装基板(PKG Package Substrate)难以实现,从而催生 2.5D 封装需求,而台积电 CoWoS 利用硅中介以合理的成本提供应对方案,因此成为主流。值得一提的是,值得一提的是,HBM 与与逻辑逻辑芯片芯片垂直堆叠的垂
104、直堆叠的 3D 封装(如封装(如 SoIC),鉴于散热和成),鉴于散热和成本问题尚未被采纳本问题尚未被采纳,但海力士和三星据 Toms Hardware 在 23 年 11 月援引韩媒中央日报报导,正在与包括英伟达在内讨论 HBM4 集成设计方案,拟将 HBM4 与逻辑芯片堆叠在一起,实现在单芯片上存储器与逻辑芯片的垂直整合。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。19 美光科技美光科技(MU US)图表图表22:CoWoS 缩短片间距实现更好的传输信号完整性缩短片间距实现更好的传输信号完整性 图表图表23:台积电台积电 CoWoS 迭代增大硅中介尺寸,匹配迭代增大硅中介尺
105、寸,匹配 HBM 封装需求封装需求 资料来源:TSMC(2017.8):Wafer-Level Integration of an Advanced Logic-Memory System Through the Second-Generation CoWoS Technology、华泰研究 资料来源:TSMC(2017.8):Wafer-Level Integration of an Advanced Logic-Memory System Through the Second-Generation CoWoS Technology、华泰研究 除去台积电除去台积电 CoWoS,英特尔,英特尔
106、 EMIB 在技术上也能实现在技术上也能实现 HBM 与与逻辑逻辑芯片芯片的封装,但短期内的封装,但短期内难以替代。难以替代。EMIB 对标台积电 CoWoS-L,与台积电 CoWoS-S(即一般所说的台积电 CoWoS)2.5D 封装采用的硅中介层结构不同,英特尔直接将小型硅桥嵌入基板中实现芯片之间的互联,在互联效率相似的基础上不需要花较高成本来制造足够大的硅中介层,因此技术上也能满足 HBM 内存与逻辑芯片的封装需要。我们认为相比 2.5D CoWoS 封装,EMIB 有如下提升良率和降低成本的优势:1)采用硅桥而不是整片硅中介层;2)无需使用硅通孔技术(TSV);3)设计简单,灵活度高,
107、芯片封装不会受制于硅中介层的大小。根据 Toms Hardware 在 24 年 1 月援引台湾经济日报报道,鉴于台积电 CoWoS 封装产能吃紧,英伟达新增英特尔提供封装服务,月产能约 5000 片,不过英特尔并未涉及英伟达的晶圆代工订单。但 EMIB 替代台积电 CoWoS-S 仍有部分问题需时验证:1)硅桥虽可解决互联带宽问题,但不采用硅基板的 RDL 中介,载板翘曲和热稳定性需验证;2)鉴于凸块间距,EMIB封装的性能和台积电 CoWoS 有所不同,亦需封装厂和芯片设计方验证。根据台湾力成 23年 10 月业绩会说法,寻找台积电 CoWoS 替代方案或需一年时间去验证,短期内难有替代。
108、图表图表24:AMD MI300 架构:架构:8 块块 HBM3 分置两侧,通过分置两侧,通过 CoWoS 与与中间中间逻辑逻辑芯片芯片的的 I/O 层连接层连接 资料来源:AMD 官网、SemiAnalysis、华泰研究 HBM 本质上仍是本质上仍是 DRAM 产品,各厂商设计、流片和封测均自行完成,出货后将产品,各厂商设计、流片和封测均自行完成,出货后将 HBM 成成品品交由交由 AI 芯片芯片封装封装厂与厂与逻辑逻辑芯片芯片整合,因此整合,因此 DRAM 工艺制程将直接影工艺制程将直接影响响 HBM 芯片芯片性能。性能。对于存储芯片,制程工艺的迭代是缩减晶体管尺寸,带来单位面积上实现更小
109、、更紧密的晶体管布局,提升内存密度,实现更高性能的同时达到更好的功耗表现。根据美光 DRAM副总裁 Thy Tran 于 2021 年 4 月的采访,DRAM 在 2015 年基本进入 20nm 以下节点之后,制程上的微缩相对放缓,头部厂商在 10nm+节点上拓展多代工艺节点(如 1x、1y、1z 和 1等),而使用字母代替确切数字的动因在于,内存行业确切数字与芯片性能并非线性相关,因此用新字母代表新制程,表示性能有了较大提升。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。20 美光科技美光科技(MU US)以美光为例,公司于 2020 年公布 1-制程节点(第四代 10nm 级
110、),并于 2021 年开始量产,之后于 2022 年率先推出 1-制程(第五代 10nm 级),相较 1-,该节点可实现约 15%的能效提升和 35%以上的内存密度提升。2023 年三星电子及 SK 海力士也于其后跟进 1-节点。美光和海力士 HBM3E 均采用 1-制程,领先于三星的 1-制程,而根据公司FY24Q2 业绩会,美光 HBM3E 相较于同代竞品实现约 10%的性能提升,降低约 30%的功耗,我们认为 DRAM 制程上的领先功不可没。HBM3/3E 扩产加速,但供需缺口短期或难以缓解扩产加速,但供需缺口短期或难以缓解 市场对市场对 HBM3/3E 反响积极,反响积极,伴随伴随 A
111、I 芯片芯片迅速迭代,所需迅速迭代,所需 HBM 搭载量和技术要求随之提搭载量和技术要求随之提高高,在供需失衡下三大在供需失衡下三大厂厂商商纷纷扩产纷纷扩产。据 Toms Hardware 在 23 年 12 月报道,英伟达向海力士和美光提前支付数亿美元以锁定 HBM 产能,印证了 HBM 产能的迫切需求和对 AI芯片的重要。英伟达在 GTC 2024 上发布了新一代架构 Blackwell 及 B200 GPU,通过搭载8 颗 HBM3E 实现 192 GB 内存容量和 8 TB/s 带宽,对比上一代 H200(6 颗 HBM3E,内存容量 141 GB,带宽 4.8 TB/s)在内存/带宽
112、上提升 36.2%/66.67%。亚马逊 AWS 已计划采购 2 万片 GB200 芯片,以部署高达 27 万亿参数的模型。根据 Digitimes 24 年 3 月的报道,Meta 计划在 24 年底前储备约 35 万颗 H100,加上其采用的其他 AI 芯片,将拥有相当于 60 万颗 H100。Meta 在 3 月 19 日指出,目前 Meta 正在以 2 个 GPU 丛集训练其第三代Llama 模型,据称每个丛集包含约 2.4 万个 H100 GPU,公司计划导入 Blackwell 训练 Llama的未来版本。根据美光 FY24Q2 业绩会,公司预期 24 年 5 月 HBM3E 出现
113、初步营收贡献,8 月营收将进一步提升,FY24Q3 开始对公司的 DRAM 业务和整体毛利率作出改善,并预计在 FY24 整年,HBM3E 将贡献约数亿美元营收。管理层对 HBM3E 前景乐观,并宣布 24 年产能已售罄,25 年产能也几近售罄。公司预计 FY24 CAPEX 在 75-80 亿美元,略高于 FY23 水平,主要用于支持HBM3E量产和扩产。管理层虽未透露除CAPEX之外更多的HBM扩产信息,但预期 25 年 HBM 市占率将与公司在 DRAM 市占率平齐,约为 20%。根据 Digitimes 24年 3 月 12 日和 4 月 15 日报道,美光将逐季提高稼动率,增产重点将
114、以 HBM 等高端 DRAM为主,并与韩美半导体(Hanmi Semiconductor)签订 HBM TC 键合设备 Dual TC Bonder Tiger 的供应合约,订单规模 225.9 亿韩元(约 1653 亿美元),合约期限为 2024 年 4 月 10日至 7 月 8 日。我们也注意到我们也注意到 HBM 另两大厂商海力士和三星亦在另两大厂商海力士和三星亦在 HBM 扩产上有所动作扩产上有所动作。继 23 年“独供”英伟达 H100 HBM3 之后,海力士积极推动产能向 HBM3E 迭代。公司预计将于利川工厂生产 HBM3E,清州 M15 工厂闲置空间新增 HBM 产线,预期于
115、24H1 量产 HBM3,同时清州正在兴建的 M15X 厂房也将作为 HBM 生产基地,产能预期于 25H1 开出。根据先前海力士23Q3 业绩电话会,24 年公司的 HBM3 和 HBM3E 产能已全部售出,正与客户、合作伙伴讨论 25 年 HBM 供应。根据 Digitimes 24 年 4 月 15 日、3 月 11 日和 2 月 7 日报道,23 年以来海力士已从韩美半导体订购逾 2000 亿韩元的 TC 键合设备,包括 Dual TC Bonder Griffin 及 Dual TC Bonder 1.0 Dragon,而同时 24 年海力士将于 HBM 投资超 10 亿美元,其中大
116、多新投资将用于改善封装制程,包括 MR-MUF 键合工艺和 TSV 技术,从而提升其HBM 产品散热能力和生产效率。考量新设备安装后扩大量产仍需时间,海力士计划海力士计划 24 年年底实现将底实现将 HBM 产能增加产能增加 2 倍,倍,从从 23 年每月年每月 4.5 万片晶圆提升至万片晶圆提升至 24 年底每月年底每月 12-12.5 万万片晶圆。片晶圆。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。21 美光科技美光科技(MU US)根据根据 Digitimes 24 年年 1 月和月和 Trendforce 24 年年 3 月报道月报道,24 年三星决定将年三星决定将 H
117、BM 产能投资产能投资增加增加近近 3 倍,从倍,从 23 年每月年每月 4.5 万片晶圆提升至万片晶圆提升至 24 年底每月年底每月 13 万片晶圆,万片晶圆,25 年也将进行年也将进行类似规模的投资。类似规模的投资。根据 Digitimes 23 年 12 月汇总信息,23H2 以来三星在设备采购和产线增加上动作积极:1)Theelec 12 月 5 日报道,三星以 5 亿韩元单价从 Shinkawa 订购 16台键合设备,其中 7 台已交付,推测该批设备将服务于英伟达 GPU 相关的 HBM 和封装业务;2)韩媒 ZD Net Korea 12 月 1 日报道,韩国设备供应商 YEST
118、收到三星 123 亿韩元HBM 加压设备订单,发往三星天安生产线;3)三星于 CES 2024 宣布计划在 2024 年将HBM 年产能扩大 2.5 倍以上,并随后投资 105 亿韩元从子公司三星显示(SDC)处收购天安工厂的建筑和设施。根据韩国经济日报 24年 3月 28日报道,三星管理层在 Memcon 2024宣布上调 24 年 HBM 产能预期至 23 年的 2.9 倍。HBM 供需测算:供需测算:24-25 年需求高速增长,供给缺口短期难以缓解年需求高速增长,供给缺口短期难以缓解 综合 Trendforce、Semianalysis 和 Digitimes 等多方信息,我们对 202
119、4 年 HBM 产能和需求做出预测,我们预计我们预计 24/25 年年 HBM 需求动态缺口约为产能的需求动态缺口约为产能的 5.4%/4%。供给侧关键假设:供给侧关键假设:1)产能假设:产能假设:以 HBM 与 TSV 产线晶圆投入量为计,我们预期截至 2024 年底海力士、三星和美光将分别投入 12-12.5 万片/月、13 万片/月和 2 万片/月。考虑后道设备交付时间较长,以及新设备安装后扩大量产仍需时间,我们预测我们预测 24 年三星、海力士和美光年三星、海力士和美光HBM 产线平均月度晶圆投入量将达产线平均月度晶圆投入量将达 8.5 万片万片/月、月、8.5 万片万片/月和月和 1
120、.2 万片万片/月。月。鉴于海力士和美光25年HBM产能亦出现售罄迹象,结合前文三星25年HBM扩产投资计划,我们认为我们认为 25 年三大厂商扩产仍将持续,年三大厂商扩产仍将持续,预测预测 25 年三星、海力士和美光年三星、海力士和美光 HBM 产线平产线平均月度晶圆投入量将达均月度晶圆投入量将达 11.5 万片万片/月、月、12.5 万片万片/月和月和 4.0 万片万片/月。月。图表图表25:三大厂商三大厂商 2024-2025 年年 HBM 晶圆投入量晶圆投入量 HBM 产线晶圆投入量产线晶圆投入量 三星三星 海力士海力士 美光美光 2023 年底(万片/月)4.5 4.5 0.3 20
121、24 年底(万片/月)13 12-12.5 2 2024 年平均(万片年平均(万片/月)月)8.5 8.5 1.2 2025 年平均(万片年平均(万片/月)月)12.5 11.5 4 资料来源:Trendforce、华泰研究预测 2)切割良率假设:切割良率假设:根据美光官方公布 HBM3E 产品细节,HBM3E 单片 DRAM 尺寸约为为 121 平方毫米(11mm x 11mm),因此单片 12 英寸晶圆理论可切割 HBM3/3E DRAM 491颗。同时,引用韩国经济日报21年7月报道,我们估计DRAM切割良率约为90%,故单晶圆可切割故单晶圆可切割 DRAM 442 颗。颗。此外,根据
122、Digitimes 24 年 3 月报道,鉴于 TSV 穿孔和键合过程易带来芯片翘曲,海海力士力士 HBM3/TSV+键合工艺良率仅键合工艺良率仅 60%-70%,较一般 DRAM 低 20-30pct,而海力士采用的 Advanced MR-MUF 键合已较三星和美光采用的TC-NCF键合在良率上有所优势,因此美光和三星 HBM 键合良率可能更低。同时,台媒科技新报 24 年 3 月报道指出,供应商试图拉高良率会带来产量下降,鉴于 HBM 产能吃紧,因此确保产量优先级更高。结合上述信息,我们认为美光和三星结合上述信息,我们认为美光和三星 HBM3 量产后,伴随产能爬坡,工艺良率量产后,伴随产
123、能爬坡,工艺良率将有所提升并趋于稳定,但使用将有所提升并趋于稳定,但使用 TC-NCF 键合所以键合所以良率良率仍将低于海力士,预测仍将低于海力士,预测 24 年年海力士海力士/三星三星/美光整体美光整体 HBM 良率良率 60%/40%/45%,25 年小有爬升,将是年小有爬升,将是 60%/42%/47%。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。22 美光科技美光科技(MU US)图表图表26:根据计算,单片根据计算,单片 12 英寸英寸 Wafer 可切割可切割 HBM3/3E DRAM 约约 442(=491 x 0.9)颗)颗 资料来源:Silicon Edge、
124、The Korea Economic Daily、美光官网、华泰研究估算 3)单个单个 DRAM 容量假设:容量假设:伴随 HBM3/3E 产能不断开出,HBM 产品组合将向 HBM3/3E倾斜,根据 Yole Intelligence 24 年 2 月报告,23 年 HBM3 产量占总产能的 33%,24年 HBM3/3E 产量占比将跃升至 81%(HBM3:62%,HBM3E:19%),25 年将进一步提升至 89%。我们认为,海力士作为英伟达 HBM3/3E 主供,产能向 HBM3/3E 倾斜将更为激进;与之相比,三星凭借其“一站式策略”承接更多云厂商自研芯片的 HBM需求,因此 HBM
125、2/2E 仍占部分产能;美光计划通过 HBM3E 追赶市场份额,在产能本不富裕的情形下,扩产 HBM3E 并顺利交付将是首要发力点。因此,我们预测,24 年年海力士海力士/三星三星/美光美光 HBM 的单片的单片 DRAM 容量为容量为 2.2/2.1/3.0GB,25 年伴随年伴随芯片芯片迭代及迭代及HBM3E 产能开出,其占比将持续扩大,带动产能开出,其占比将持续扩大,带动 HBM 的单片的单片 DRAM 容量提升至容量提升至2.6/2.4/3.0GB。图表图表27:HBM 各产品产能分布预测(各产品产能分布预测(%)资料来源:Yole Group、华泰研究预测 图表图表28:三大厂商三大
126、厂商 2024-2025 年年 HBM 晶圆投入量晶圆投入量 HBM 单片单片 DRAM 容量及出货量占比容量及出货量占比 海力士海力士 2024E 2025E HBM3-2GB 77%38%HBM3E-3GB 23%62%单片单片 DRAM 容量容量 2.2 2.6 三星三星 2024E 2025E HBM2E-1/2GB 20%7%HBM3-2GB 62%35%HBM3E-3GB 19%57%单片单片 DRAM 容量容量 2.1 2.4 美光美光 2024E 2025E HBM3E-3GB 100%100%单片单片 DRAM 容量容量 3.0 3.0 资料来源:Yole Intellige
127、nce、华泰研究预测 42%19%7%3%53%48%13%4%5%33%62%55%19%34%4%0%20%40%60%80%100%202220232024E2025EHBM2HBM2EHBM3HBM3EHBM4(+)免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。23 美光科技美光科技(MU US)需求侧关键假设:需求侧关键假设:1)CoWoS 产能假设:产能假设:结合台积电 23 年底 CoWoS 月产能为 1.9 万片,考虑产能爬坡时间,我们预测我们预测 24 年台积电动态年台积电动态 CoWoS 产能为产能为 2.8 万片万片/月,与外溢部分合计月,与外溢部分合计 3
128、.3 万万片片/月,月,24 年年 CoWoS 总产能约总产能约 39.6 万片万片;25 年除去台积电年除去台积电 CoWoS 产能扩张,英特产能扩张,英特尔尔 EMIB、Amkor 和和 ASE 等外溢产能同样有望进一步开出,预测等外溢产能同样有望进一步开出,预测 25 年年 CoWoS 月产月产能能 5.2 万片,总产能万片,总产能 62 万片万片。2)各厂商各厂商 AI 芯片芯片单晶圆切出量、单卡单晶圆切出量、单卡 HBM 堆栈数量以及单堆栈数量以及单 HBM 堆栈堆栈容量:容量:我们基于各 AI 芯片尺寸计算每片切出芯片数目,并根据 HBM 参数,结合各厂商取得的 CoWoS产能,以
129、芯片出货量为权重计算三项参数的加权平均。产能分布上,产能分布上,我们认为 24-25年 HBM 需求仍以英伟达 AI GPU 为主体,英伟达 24-25 年仍将每年取得逾 40%产能,同时关注到AMD MI300、谷歌TPU v5、AWS Trainium/Inferentia以及英特尔Gaudi 2/3带来的需求增量;单晶圆切出量上,单晶圆切出量上,伴随设计尺寸增大,以及 Blackwell 对比 Hopper产能占比提升,25 年每片切出的 AI 芯片将随之下降;结合前文,虽然每片切出数目减少,但单单卡卡 HBM 堆栈数目增多、层数增高和容量增大将是大势所趋。堆栈数目增多、层数增高和容量增
130、大将是大势所趋。因此,我们我们预测预测 24/25 年单晶圆平均切出年单晶圆平均切出 AI 芯片芯片 39/38 颗、单卡平均颗、单卡平均 HBM 堆栈数量堆栈数量 5.3/5.9 颗,颗,以及单以及单 HBM 堆栈平均容量堆栈平均容量 14.0/14.7GB。基于以上假设,我们预测基于以上假设,我们预测 24/25 年年 HBM 总供给总供给 1067.3/1933.1 mn GB,同比,同比+123.3%/81.1%,其中 24 年海力士、三星和美光分别占总供给的 57%、36%和 8%,伴随美光 25 年 HBM 产能开出,海力士、三星和美光 HBM 供给量将分别占总供给的 50%、35
131、%和 15%。同时,我们预测同时,我们预测 24/25 年年 HBM 总需求总需求 1128.6/2014.3 mn GB,由此测算得,由此测算得 24/25年年 HBM供给缺口约为产能的供给缺口约为产能的 5.4%/4%。鉴于三大厂商均提及与下游讨论 25年HBM供应,我们认为 24 年 HBM 扩产后,25 年缺口虽收窄但仍将维持轻微的供给不足,从而使得 HBM ASP 维持稳定。以以 ASP 11 美元美元/GB 测算,对应市场空间测算,对应市场空间 124.1/221.6 亿美元,同比亿美元,同比+125.6%/78.6%。图表图表29:2022-2025 年年 HBM 出货量(出货量
132、(mn GB)图表图表30:2022-2025 年年 HBM 市场规模(十亿美元)市场规模(十亿美元)资料来源:Yole Intelligence、华泰研究预测 资料来源:Yole Intelligence、华泰研究预测 250 478 1,067 1,933 91%123%81%0%20%40%60%80%100%120%140%05001,0001,5002,0002,500202220232024E2025EHBM出货量(mn GB)YoY(%)3.0 5.5 12.4 22.2 83%126%79%0%20%40%60%80%100%120%140%0522023
133、2024E2025EHBM市场规模(十亿美元)YoY(%)免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。24 美光科技美光科技(MU US)图表图表31:2024-2025 HBM 供应端供应端产能预测(产能预测(K GB)HBM 供应量供应量 2024E 2025E SK 海力士海力士 晶圆投入量(万片/月)8.5 11.5 单晶圆切割 HBM DRAM 颗粒数目(颗)442 442 HBM TSV 及键合良率 60%60%单个 DRAM die 容量(GB)2.2 2.6 HBM 总产能(总产能(K GB)604,459.6 958,116.9 占总产能比重(占总产能比重(%
134、)57%50%三星三星 晶圆投入量(万片/月)8.5 12.5 单晶圆切割 HBM DRAM 颗粒数目(颗)442 442 HBM TSV 及键合良率 40%42%单个 DRAM die 容量(GB)2.1 2.4 HBM 总产能(总产能(K GB)380,509.0 675,845.6 占总产能比重(占总产能比重(%)36%35%美光美光 晶圆投入量(万片/月)1.2 4.0 单晶圆切割 HBM DRAM 颗粒数目(颗)442 442.0 HBM TSV 及键合良率 45%47%单个 DRAM die 容量(GB)3 3 HBM 总产能(总产能(K GB)82,344.6 299,145.6
135、 占总产能比重(占总产能比重(%)8%15%HBM 总供给(总供给(K GB)1,067,313.1 1,933,108.2 HBM 需求(以需求(以 CoWoS 为计)为计)2024E 2025E 台积电月产能(万片/月)3.2 4.4 台积电动态 CoWoS 月产能(万片/月)2.8 4.2 外溢至 Amkor 等的产能(万片/月)0.5 1.0 CoWoS 总产能(万片)总产能(万片)39 62 平均单晶圆切出 AI 芯片数(颗)39 38 单卡平均 HBM 堆栈数量(颗)5.3 5.9 HBM 堆栈平均容量(GB,综合考量 HBM3/3E 及 HBM2E)14.0 14.7 HBM 总
136、需求(总需求(K GB)1,128,582.0 2,014,320.8 HBM 供需缺口供需缺口-5.4%-4.0%资料来源:Digitimes、Trendforce、Silicon Edge、各公司公告、华泰研究预测 图表图表32:美光美光 2024-2025 年年 HBM 营收及占比营收及占比 2024E 2025E 美光美光 HBM 营收(百万美元)营收(百万美元)930.5 3,380.3 美光 HBM ASP($/GB)11.3 11.3 美光 HBM 产能(K GB)82,345 299,146 美光美光 DRAM 营收(百万美元)营收(百万美元)17,809 27,814 HBM
137、 营收占营收占 DRAM 营收营收比比重重 5%12%资料来源:美光公告、华泰研究预测 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。25 美光科技美光科技(MU US)从从 AI 服务器服务器需求需求看看 HBM,高速增长带来内存,高速增长带来内存新增长点新增长点 AI 服务器服务器的兴起拉动的兴起拉动 HBM 市场需求持续增长。市场需求持续增长。根据 TrendForce 23 年 4 月报道,现阶段通用服务器 DRAM 约为 500-600GB,而 AI 服务器则需要更多,平均为 1.2-1.7TB,其中HBM 容量为 320-640GB。随着 AI 模型日益复杂,对服务器
138、训练速度的追求将越来越高,因此 DRAM 和 HBM 是必不可少,同时,在 SSD 容量提升上亦呈现扩大的态势。Trendforce估计未来 AI 服务器每台 DRAM 容量为 2.2-2.7TB,其中 HBM 容量为 512-1024GB。根据海力士 23Q3 业绩电话会,管理层预期未来 5 年 HBM 总市场规模的 CAGR 为 60%-80%。AI 服务器市场火热亦可从服务器厂商业绩略见一斑。服务器市场火热亦可从服务器厂商业绩略见一斑。2024 年 2 月 29 日盘后 Dell 发布FY24Q4 业绩,Servers and networking 业务收入环比增长 4.3%至 48.5
139、7 亿美元,超过彭博一致预期的 48.09 亿美元,AI 服务器出货达 8 亿美元。展望未来,公司的 AI 服务器累计在手订单增长至 29 亿美元,接近第三季度 16 亿美元的两倍,因此将带来稳健的增长前景,公司预计 Infrastructure Solution Group(ISG)板块(分为 Servers and networking 和Storage 业务,包含 AI 基础设施中的储存产品 PowerScale)将受益于来自 AI 客户的强劲需求,同步增长 15%-17%(mid-teens growth)。业绩发布后一交易日,Dell 股价盘中一度飙升至 131.1 元的高点,最终收
140、盘于 124.59 美元,上涨 31.62%。图表图表33:Dell ISG 营收同比增长(百万美元,营收同比增长(百万美元,%)图表图表34:Dell ISG 营收环比增长(百万美元,营收环比增长(百万美元,%)资料来源:Bloomberg、Dell 公告、华泰研究 资料来源:Bloomberg、Dell 公告、华泰研究 竞争格局:三大厂商瓜分竞争格局:三大厂商瓜分 HBM3/3E 市场,各显神通角逐市场,各显神通角逐 HBM4 在半导体行业在半导体行业,先进制程技术的发展呈现,先进制程技术的发展呈现资金和技术壁垒不断提高的趋势,资金和技术壁垒不断提高的趋势,HBM 所需工艺所需工艺的复杂性
141、和其应用场景的复杂性和其应用场景,以及,以及对供需双方深度合作的要求对供需双方深度合作的要求,使得行业格局使得行业格局集中于海力士、集中于海力士、三星和美光三大厂商。三星和美光三大厂商。综合 Yole Intelligence 24 年 2 月发布的全球 HBM 市场报告,23 年海力士市场份额为 56%,三星市场份额为 41%,美光市场份额为 3%。图表图表35:HBM 工艺成本拆分(工艺成本拆分(4 层层 DRAM,99.5%良率)良率)图表图表36:2023 年年 HBM 市场份额市场份额 *注:数据发布于 2016 年 4 月 资料来源:3D InCites、华泰研究 资料来源:Yol
142、e Group、华泰研究 18%12%20%20%15%3%1%7%4%TSV制造TSV背部露头前端工艺后端工艺组装晶圆凸块测试TSV制造良率损失组装良率损失56%41%3%SK海力士三星电子美光 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。26 美光科技美光科技(MU US)图表图表37:HBM 主要生产商技术路线图主要生产商技术路线图 2022-2026 资料来源:Trendforce、华泰研究 图表图表38:三大厂商三大厂商 HBM3/3E 的性能对比表的性能对比表 公公司司 美光美光 SK 海力士海力士 三星三星 HBM HBM3E HBM3 HBM3E HBM3 Ic
143、ebolt HBM3E Shinebolt 量产时间量产时间 2024 年 2 月 2022 年 6 月 2024 年 3 月 2023 年下半年 2024 年上半年 容量(容量(GB)24/36 16/24 24/36/48 24 24/36 带宽带宽 1.2TB/s 819GB/s 1.18TB/s 819GB/s 1.2TB/s 单片单片 DRAM 容量容量 3GB 2GB 3GB 2GB 3GB VDD 电压(电压(V)-1.1 1.1 1.1-I/O 速率(速率(Gbps)9.2 6.4 9.2 6.4 9.8 键合高度(层)键合高度(层)8/12 8/12 8/12/16 12 1
144、2 技术节点技术节点 1 1z 1 1z 1 有效位宽有效位宽 1024-bit 1024-bit 1024-bit 1024-bit 1024-bit 键合技术键合技术 TC-NCF Advanced MR-MUF Advanced MR-MUF TC-NCF TC-NCF 资料来源:美光官网、SK 海力士官网、三星官网、AnandTech、Digitimes、TrendForce、华泰研究 Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4三星3.2-3.61y 16Gb8/16GBSK海力士3.61y 16Gb8/16GB美光3.2-3.61z 16Gb16
145、GB 16GB 24GB16GB 24GB 24GB 36GB24GB 36GB 24GB36GBHBM4TBDTBD送样英伟达出货量产1z 16Gb三星8-9.21 24Gb公司公司技术节点技术节点HBM2eHBM3HBM3e三星5.6-6.41z 16GbSK海力士5.6-6.4美光8-9.21 24Gb完整参数或在24H2-2025公布;2026送样传输速率传输速率(GbpsGbps)SK海力士8-9.21 24Gb20222023202420252026 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。27 美光科技美光科技(MU US)图表图表39:HBM 进程时间表进程
146、时间表 公司公司 时间时间 产品产品 事件事件 海力士海力士 2013.12 HBM1 与 AMD 联合开发第一代 HBM,和 AMD Fiji GPU 一起应用于 AMD Radeon Fury 系列显卡。2017 HBM2 在三星之后推出 HBM2,同年实现量产 2019.8 HBM2E 率先推出 HBM2E,MR-MUF 键合技术开始应用 2020.7 HBM2E HBM2E 实现量产 2021.10 HBM3 推出业界首款 HBM3,宽带 819GB/s 2022.6 HBM3 宣布 HBM3 开始供应英伟达 2023.4 HBM3 推出 24GB 12 层堆叠的 HBM3,并宣布 H
147、BM3 开始使用 Advanced MR-MUF 键合技术 2023.8 HBM3E 开始出样 8 层 HBM3E,带宽突破至 1.15TB/s 2024.1 HBM3E CES 2024 上展示 8 层 24GB HBM3E,带宽 1.18TB/s 2024.3 HBM3E 宣布 8 层 HBM3E 开始量产,供货英伟达,同时向英伟达送样 12 层 36GB HBM3E,或出现制程问题 三星三星 2016.1 HBM2 与英伟达和台积电联合开发 HBM2,同年实现量产 2020 HBM2E 推出 HBM2E,同年实现量产 2023H1 HBM3 先后推出 16GB 和 24GB HBM3 2
148、023.10 HBM3/3E 确认量产 8 层和 12 层 HBM3 Icebolt,推出 HBM3E Shinebolt 8 层原型版本,带宽 1.225TB/s 2024.2 HBM3E 宣布 12 层 36GB HBM3E Shinebolt 开发完成,带宽 1.225TB/s 2024Q1 HBM3 HBM3 通过 AMD 效能验证,供货 MI300 系列 2024H1 HBM3E 量产 HBM3E 美光美光 2020 HBM2/2E 先后宣布量产 HBM2/2E 2023.7 HBM3E 宣布与台积电合作推出 HBM3E 2024.2 HBM3E 8 层 24GB HBM3E 率先量
149、产,供货英伟达 H200 2024.3 HBM3E 开始出样 12 层 36GB HBM3E 资料来源:海力士官网、三星官网、美光官网、Toms Hardware、TechPowerUp、Digitimes、KED Global、华泰研究 美光:美光:跳过跳过 HBM3,1-制程制程 HBM3E 加速追赶加速追赶 我们看好美光我们看好美光 HBM 业务的逻辑不是其“赢在起跑线上”,相反,业务的逻辑不是其“赢在起跑线上”,相反,美光并非美光并非 HBM 市场的先市场的先行者,但我们预期美光行者,但我们预期美光将将是本轮是本轮 HBM 高速增长的高速增长的主要受惠者:主要受惠者:1)中)中短期短期
150、内内 HBM 市场市场仍仍将供不应求,将供不应求,美光 HBM3E 可作为“二供”承接溢出订单,同时其相较同业竞品更优的产品性能也有利于帮助其扩展下游客户;2)HBM3E 相较传统相较传统 DRAM ASP 更高,更高,借助 HBM3E的营收贡献美光利润率有望迎来优化,同时 HBM 销售多基于年度合同,相较传统 DRAM大宗商品属性更低,拥有更好的抗周期性;3)与海力士和三星不同,美光借)与海力士和三星不同,美光借 HBM3E“重“重启”启”HBM 业务几近“从无到有”,业务几近“从无到有”,2023 年 HBM 市场份额仅为 3%,低基数带来相较前两者更高的成长性;4)英伟达扶持,受益于英伟
151、达大量英伟达扶持,受益于英伟达大量 HBM 需求。需求。23 年英伟达 H100 HBM3由海力士独供,我们认为一方面海力士 HBM3/3E 产能扩展有限,为保证 AI 芯片按期交付,英伟达积极扶持美光作为 HBM“二供”;另一方面也是出于避免过分依赖海力士,防止海力士一家独大的考量,寻求替代方案,“货比三家”从而掌握更大的议价主动性。目前海力士 HBM3/3E“独供”格局已被打破,截至 24 年 4 月中旬,海力士和美光 HBM3E 均已通过英伟达效能验证,确认供货 H200,三星 HBM3E 仍在验证进程中,但 Digitimes 24 年 4月 15 日报道指出三星上修 24 年 HBM
152、 出货目标及访台谋求 HBM 合作当作积极,或隐含英伟达产品验证进程顺利。我们认为美光能否借我们认为美光能否借 HBM“东风”成功实现估值重估,关键在于“东风”成功实现估值重估,关键在于在在 HBM 的蛋糕不断做大的蛋糕不断做大的前提下,的前提下,其能其能否否成功成功抢占抢占份额:份额:1)产能)产能:当前美光 HBM 产能较海力士和三星仍然较低,24-25 年美光能否成功扩产并满足下游需求将是关键;2)良率:)良率:相较海力士 MR-MUF 键合,美光和三星均使用 TC-NCF,键合技术良率仍然较低,能否通过良率提升进一步减少损耗成本,同时变相提升产能也将是未来发力重点。免责声明和披露以及分
153、析师声明是报告的一部分,请务必一起阅读。28 美光科技美光科技(MU US)图表图表40:美光美光 HBM3E 产品展产品展示示 图表图表41:美光美光 HBM3E 规格参数规格参数 资料来源:美光官网、NextPlatform、华泰研究 资料来源:美光官网、华泰研究 图表图表42:美光美光 HMC 设计概念和性能参数:与设计概念和性能参数:与 HBM 高度相仿高度相仿 资料来源:EE Daily、华泰研究 美光并非美光并非 HBM 领域的先行者领域的先行者,自研,自研 HMC 未获广泛应用未获广泛应用。2011 年 9 月,英特尔于开发者论坛(IDF)介绍其与美光合作开发的 HMC(Hybr
154、id Memory Cube 混合内存立方体)技术,同样基于 TSV 技术构建 DRAM 堆栈,以解决 DDR3 面临的带宽问题。但限于成本高昂及并非开放标准,并未获得业界广泛采用。根据 Microprocessor Report 14 年 9 月的报道,富士通 Sparc64 XIfx 是为数不多采用美光 HMC 的处理器之一,搭载于 15 年推出的富士通 PRIMEHPC FX100 超级电脑。2018 年 8 月,因未获市场采纳,美光宣布放弃 HMC,转向 HBM,2020 年 3 月美光开始提供 HBM2 产品,面向高端 AI 芯片的显存方案,并于2020 年 7 月宣布量产 HBM2
155、E,此时较 2016 年三星率先发布 HBM2 已然过去近 4 年。美光美光跳过跳过 HBM3,意图意图通过通过 1-制程占领制程占领 HBM3E 市场份额。市场份额。为追赶 SK 海力士和三星,美光决定跳过 HBM3 直接生产 HBM3E。2023 年 7 月,美光宣布与台积电 3D-Fabric 联盟,推出 1-制程的 HBM3E,其 DRAM 堆栈为 8 层,提供 24GB 容量,带宽、传输速度达到1.2TB/s、9.2Gbps。24 年 2 月 26 日,美光率先宣布实现 HBM3E 量产,确认供货英伟达H200,24 年 3 月美光已宣布出样 12 层 36GB HBM3E,预期 2
156、5 年量产。对比海力士和三星的对比海力士和三星的 HBM3E,美光,美光布局较晚,欲在工艺上弯道超车,提升产品性能。布局较晚,欲在工艺上弯道超车,提升产品性能。根据公司 FY24Q2 业绩会,美光 HBM3E 相较于同代竞品实现约 10%的性能提升,降低约 30%的功耗,管理层称美光 HBM3E 的性能优势获得客户青睐,并证实其跳过 HBM3 直接布局HBM3E 战略的可行性:1)制程上)制程上:根据 Digitimes 24 年 1 月报道,美光和海力士 HBM3E均采用1-制程,领先于三星的1-制程,而美光预期于25年率先量产下一代1-DRAM,由于 HBM 本质是 DRAM 堆叠,若率先
157、采用 1-制程的 DRAM 将同样为 HBM 产品带来性能优势;2)布局布局中国中国台湾台湾,加强供应链合作:,加强供应链合作:根据台媒数位时代 24 年 3 月专访中国台湾美光董事长卢东晖的报道,结合 Digitimes 24 年 3 月相关新闻,美光 HBM3E 封测和出货均在中国台湾完成,自产品设计阶段开始与中国台湾供应链合作紧密,例如,在中国台湾供应链部分,美光与 IP 供应商合作提供 GPU 与 HBM 快速交互的相关技术。同时,相较三星集存储、AI 芯片设计、晶圆代工和封装为一体,美光定位与海力士接近,与台积电不存在竞争关系,因此自 HBM3E 研发初期开始即可以与台积电紧密合作商
158、讨 HBM 与 GPU 整合方案,鉴于英伟达和 AMD 等下游客户是台积电 CoWoS 的“头号客户”,美光与台积电的合作加速客户验证其 HBM3E 进程,纠错过程亦更易进行。同时,三星 24 年 3 月下旬访台就 HBM 加强与台积电合作,并拉拢更多供应链伙伴,海力士 HBM 开发过程中也曾数次访问台积电,侧面印证 HBM 供应链合作的必要性。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。29 美光科技美光科技(MU US)SK 海力士:超越三星的海力士:超越三星的 HBM 领头羊,先发优势、领先制程和键合工艺稳坐头把交椅领头羊,先发优势、领先制程和键合工艺稳坐头把交椅 我们认
159、为,海力士自独供英伟达我们认为,海力士自独供英伟达 HBM3 开始的先发优势开始的先发优势使得其坐稳行业龙头使得其坐稳行业龙头,但面对来势,但面对来势汹汹的美光,其在汹汹的美光,其在 HBM 市场市场 50%左右的份额能否保持则有待观察。尽管英伟达对左右的份额能否保持则有待观察。尽管英伟达对 HBM3E需求增加,但需求增加,但 AMD 和云和云厂商厂商自研自研芯片芯片对对 HBM3 需求也不可忽视,需求也不可忽视,24-25 年年 HBM3 仍将是仍将是海力士营收增长的“基本盘”。海力士营收增长的“基本盘”。相较美光和三星,海力士已积累与下游客户合作的丰富经验,如我们前文所述,其效能验证和纠错
160、效率或较竞争对手更高;相较三星,海力士 HBM3 已形成成熟供应链,良率稳定且技术较三星更有优势。SK 海力士的第一代海力士的第一代 HBM 与与 AMD 联合开发,之后公司多次发布新产品联合开发,之后公司多次发布新产品,保持保持 HBM 领先领先地位。地位。2013 年 12 月,公司与 AMD 联合开发 HBM1,和 AMD Fiji GPU 一起应用于 AMD Radeon Fury 系列显卡。之后的 7 年间迭代更新 HBM2 和 HBM2E;于 2021 年 10 月推出全球首款 HBM3,2022 年 6 月实现量产后独供英伟达 H100。2023 年 4 月推出 24GB 12层
161、堆叠的HBM3,通过将单个DRAM的高度磨削到约30微米(比16GB HBM3单片薄40%),实现了与 16GB 产品相同的高度。2023 年 8 月发布 HBM3E。海力士在 CES 2024 展示的HBM3E提供1.18TB/s数据处理速度(发布初为1.15TB/s),并已经于24年3月实现HBM3E量产,开始向英伟达供货。根据 TechInsights 转载 24 年 2 月国际固态电路研讨会(ISSCC 2024)日程,海力士于会上 Paper 13.4 中公开其 16 层堆叠的 HBM3E 技术,提供 48GB内存和近 1.3TB/s 的带宽。根据 Digitimes 24 年 2
162、月 26 日报道,业界估计 24 年海力士 HBM营收将达 10 兆韩元(约 74.9 亿美元),相当于 23 年总营收的一半,Digitimes 该篇报道亦假设利润率为 50%,由此推出海力士 HBM利润约为 5兆韩元,将占 24年整体利润的 50%。相较三星和美光,海力士采用领先的相较三星和美光,海力士采用领先的 HBM 键合工艺键合工艺,是是业内业内唯一唯一将将 MR-MUF 技术应用于技术应用于HBM 的公司。的公司。海力士的 HBM2 和三星 HBM 键合均采用 TC-NCF(基于热压的非导电薄膜Thermal Compression-Non Conductive Film)工艺,该
163、过程需要高温高压环境将凸点(bumps)推入非导电薄膜,在单个 DRAM 高度减少的环境下更易导致芯片翘曲。海力士在 HBM2E中首次使用 MR-MUF(批量回流模制底部填充 Mass Reflow Molded Underfill),通过在芯片间注入 EMC(液态环氧树脂模塑料 Epoxy Molding Compound)填充芯片之间或芯片与凸块之间间隙。EMC 本身具备中低温固化、低翘曲、低吸水率等优点,无需借助高温高压,可有效解决芯片翘曲从而提升良率。在设计 12 层 HBM3 时,公司采用了Advanced MR-MUF 技术,进一步提升工艺良率和散热性能。图表图表43:MR-MUF
164、 对比对比 TC-NCF 温度下降温度下降 14%图表图表44:Advanced MR-MUF 对比对比 MR-MUF 散热能力散热能力进一步提高进一步提高 资料来源:SK 海力士公告、华泰研究 资料来源:SK 海力士公告、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。30 美光科技美光科技(MU US)图表图表45:SK 海力士海力士以以 MR-MUF 代替代替 TC-NCF,大幅降低,大幅降低 HBM 热阻热阻 资料来源:SK 海力士公告、华泰研究 与三星不同,海力士没有晶圆代工业务,与台积电合作更加紧密,二者作为受与三星不同,海力士没有晶圆代工业务,与台积电合作更
165、加紧密,二者作为受益于益于 AI 芯片芯片的利益共同体,合作推进的利益共同体,合作推进 HBM4 研发。研发。2024 年 4 月,海力士与台积电签署合作备忘录,合作开发预计在 2026 年投产的 HBM4,以此与三星的“一站式策略(Turnkey Strategy)”竞争。该合作主要分为两个方面:1)海力士和台积电将首先致力改善)海力士和台积电将首先致力改善 HBM 封装内最底层封装内最底层的基础裸片(的基础裸片(Base Die),),该片与上方的 DRAM 不同,对上方的 DRAM 堆栈(Core Die)起到控制作用,同样连接至 GPU。过往包括 HBM3E 在内的海力士 HBM 产品
166、的基础裸片由海力士基于自身制程工艺制造,但从 HBM4 开始采用台积电先进逻辑制程,更细微的工艺可以在基础裸片上增加更多功能,从而满足客户定制化产品在性能和功效上更加多样的需求;2)双方将进一步优化海力士)双方将进一步优化海力士 HBM 产品和台积电产品和台积电 CoWoS 技术融合,改善性能表技术融合,改善性能表现。现。图表图表46:SK 海力士海力士 6 代代 HBM 参数对比参数对比 HBM1 HBM2 HBM2E HBM3 HBM3E HBM4(预测)(预测)发布年份发布年份 2013 2017 2019 2021 2023 2026E 容量(容量(GB)1 4/8 8/16 16/2
167、4 24/36 36-48 带宽(带宽(GB/s)128 307 460 819 1.18TB/s 1.5-2TB/s VDD 电压(电压(V)1.2 1.2 1.2 1.1 1.1 1.1 传输速率传输速率(Gbps)1 2.4 3.6 6.4 9.2-键合键合高度(层)高度(层)4 4/8 4/8 8/12 8/12 12/16 键合键合技术技术 TC-NCF TC-NCF MR-MUF(Advanced)MR-MUF Advanced MR-MUF Hybrid Bonding 热阻系数热阻系数-1 0.65 0.5/0.55 0.5 0.4-0.5 资料来源:SK 海力士公告、华泰研究
168、 图表图表47:海力士分业务营收(海力士分业务营收(CY,万亿韩元,万亿韩元,%)图表图表48:海力士各业务营收占比(海力士各业务营收占比(CY,%)资料来源:公司公告、华泰研究 资料来源:公司公告、华泰研究 43.1%33.8%-7.0%-38.0%-58.1%-47.1%-17.5%47.4%144.3%-100%-50%0%50%100%150%200%024681012141622Q1 22Q2 22Q3 22Q4 23Q1 23Q2 23Q3 23Q4 24Q1DRAMNAND闪存其他总营收YoY65%64%63%60%57%60%67%65%61%32%33%31%31%33%31
169、%27%29%35%3%4%6%10%9%9%6%6%4%0%20%40%60%80%100%22Q122Q222Q322Q423Q123Q223Q323Q424Q1DRAMNAND闪存其他 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。31 美光科技美光科技(MU US)图表图表49:海力士海力士 DRAM 营收(营收(CY,万亿韩元,万亿韩元,%)图表图表50:海力士海力士 NAND 营收(营收(CY,万亿韩元,万亿韩元,%)资料来源:公司公告、华泰研究 资料来源:公司公告、华泰研究 图表图表51:海力士盈利能力(海力士盈利能力(CY,%)图表图表52:海力士库存情况(海力士
170、库存情况(CY,万亿韩元,万亿韩元,%)资料来源:公司公告、华泰研究 资料来源:公司公告、华泰研究 三星:依托自家晶圆代工部门,一站式策略追赶海力士市场份额三星:依托自家晶圆代工部门,一站式策略追赶海力士市场份额 三星于23H2开始量产16GB/24GB 1-Z HBM3,根据Trendforce 24年3月报道,其16/24GB HBM3 已于 23 年底确认供货英伟达,打破海力士作为英伟达 HBM3“独供”格局。GTC 2024期间三星展示其 12 层 36GB HBM3E,预期于 24H2 实现量产。英伟达 CEO Jensen Huang会上于三星 12 层 HBM3E 旁签下“Jen
171、sen Approved”,确认该产品正在通过英伟达效能验证。Digitimes 24 年 4 月报道三星 HBM3E 测试已近尾声,最快 24Q2 开始供货英伟达,相较之前市场预期 24H2 提前。我们认为,三星是海力士我们认为,三星是海力士 HBM 市场的有力竞争者,短期市场的有力竞争者,短期 HBM3 市场或难以追赶海力士,市场或难以追赶海力士,但中期但中期 HBM3E/4 将凸显其优势:将凸显其优势:1)相较海力士,三星 HBM3 起步较晚,因此市场份额或难以相匹敌,然而 24 年 2 月三星 12 层 36GB HBM3E 已经宣布开发完成,且带宽提升相较海力士更为激进,若三星成功于
172、 24H1 量产 HBM3E,并后续通过英伟达验证,则将与海力士重回同一起跑线;2)对比海力士和美光,三星的独特对比海力士和美光,三星的独特之处在于其整合存储之处在于其整合存储芯片芯片和晶圆和晶圆代工的能力,从而实现“一站式策略(代工的能力,从而实现“一站式策略(Turnkey Strategy)”。)”。中期来看,三星的“一站式策略”将服务于 HBM4 的研发,其逻辑类似海力士与台积电的合作,三星存储与封装部门协同将缩短 HBM4 从研发到生产的中间环节,并在未来的量产中缩短从存储颗粒制造、封装到交付的周期,从而能占得 HBM4 及后续产品先机;3)对比海力士积极推进 HBM3/3E产能迭代
173、,三星在三星在 HBM2E 市场仍然有着来自市场仍然有着来自 AMD Xilinx、中国、中国芯片芯片厂商以及云厂商自研厂商以及云厂商自研芯片芯片的的 HBM 需求。需求。例如 Xilinx Versal FPGA、Google TPU v5e、Amazon Inferentia 2 和Trainum、壁仞科技(Biren)106 系列和燧原科技(Enflame)云燧 T20 仍采用 HBM2E,短期内仍有部分需求。7.98.87.04.62.94.46.17.37.6-10%12%-21%-34%-36%51%38%21%3%30%17%-16%-48%-63%-50%-12%61%160%
174、-100%-50%0%50%100%150%200%024681022Q1 22Q2 22Q3 22Q4 23Q1 23Q2 23Q3 23Q4 24Q1DRAM营收QoQYoY3.94.53.42.41.72.22.43.34.423%15%-25%-30%-29%33%8%35%33%95%96%11%-25%-57%-50%-28%39%158%-100%-50%0%50%100%150%200%0.01.02.03.04.05.022Q1 22Q2 22Q3 22Q4 23Q1 23Q2 23Q3 23Q4 24Q1NAND闪存营收QoQYoY0%-32%-16%1%20%39%-25
175、%-67%-39%-20%23%23%-49%-51%-41%-24%-12%15%-80%-60%-40%-20%0%20%40%60%22Q423Q123Q223Q323Q424Q1毛利率营业利润率净利润率615131417%14%23%7%10%-4%-9%-10%3%68%91%122%76%65%38%2%-14%-19%-40%-20%0%20%40%60%80%100%120%140%0510152022Q1 22Q2 22Q3 22Q4 23Q1 23Q2 23Q3 23Q4 24Q1库存QoQYoY 免责声明和披露以及分析师声明是报告的一部分,请务必一起
176、阅读。32 美光科技美光科技(MU US)海力士海力士 HBM3 率先率先量产占得先机,三星加速迭代奋起直追。量产占得先机,三星加速迭代奋起直追。16 年 1 月,三星跳过 HBM1,开始量产 HBM2 Flarebolt,并搭载于英伟达 Tesla P100,将海力士 HBM1 发布后因成本原因遇冷的 HBM 技术重新拉回大众视野。纵观海力士和三星 HBM 产品的迭代时间,两家产品“你方唱罢我登场”,同代产品更新间隔平均在半年之内,技术咬合紧密。22 年 6 月海力士 HBM3 早于三星实现量产,适逢 22 年底 ChatGPT 发布,生成式 AI 浪潮拉动 AI 芯片需求井喷,海力士借助
177、HBM3 大量供货率先受益。根据韩国经济日报 23 年 6 月 26 日报道,三星 HBM3 Icebolt(8/12 层堆叠)于 23H2 才实现大规模量产。随后三星加速产品迭代并随后三星加速产品迭代并积极拓展客户,积极拓展客户,公司于 23 年 10 月 20 日的 Memory Tech Day 上发布 HBM3E,并于 24 年2 月 27 日宣布开发完成,其提供 36GB 的内存容量和 1.225 TB/s 的带宽,传输速率(9.8 Gbps)相较海力士(9.2 Gbps)的同代产品更为激进,该 HBM3E 现已向客户送样,预期于 24H2 实现量产。根据 Trendforce 24
178、 年 3 月新闻,三星 HBM3 已通过 AMD 产品测试,预期将搭载于 MI300X,并已向英伟达供货。24 年 3 月 20 日 GTC 2024 上英伟达确认三星 HBM 产品处于验证阶段,当日三星电子涨逾 4%,创 24 年 1 月 19 日以来最大单日涨幅。图表图表53:三星历代三星历代 HBM 参数对比参数对比 HBM2(Flarebolt)HBM2(Aquabolt)HBM2E(Flashbolt)HBM3(Icebolt)HBM3E(Shinebolt)HBM4(预测)(预测)发布年份发布年份 2016 2018 2020 2023 2023 2025 最大容量(最大容量(GB
179、)8 8 16 16/24 24/36 36-48 带宽(带宽(GB/s)256 307 460 819 1.225TB/s 1.5-2TB/s VDD 电压(电压(V)-1.2 1.2 1.1-传输速率(传输速率(Gbps)-2.4 3.6 6.4 9.8-堆叠高度(层)堆叠高度(层)8 8 8 8/12 8/12 16 堆叠技术堆叠技术 TC-NCF TC-NCF TC-NCF TC-NCF TC-NCF Hybrid Bonding 资料来源:三星官网、Trendforce、Anand Tech、华泰研究 三星大力推进三星大力推进 HBM 扩产,抢占扩产,抢占 HBM3/3E 市场份额。
180、市场份额。23H2 以来三星在设备采购和产线增加上动作积极:1)Theelec 12 月 5 日报道,三星以 5 亿韩元单价从 Shinkawa 订购 16 台TC 键合设备,其中 7 台已经交付,推测该批设备将服务于英伟达 GPU 相关的 HBM 和封装业务;2)韩媒 ZD Net Korea 12 月 1 日报道,韩国设备供应商 YEST 收到三星 123 亿韩元 HBM 加压设备订单,发往三星天安生产线;3)三星于 23Q3 业绩会宣布计划在 2024年将 HBM 年产能扩大 2.5 倍以上,并随后投资 105 亿韩元从子公司三星显示(SDC)处收购天安工厂的建筑和设施。CES 2024
181、 媒体见面会上,三星电子管理层透露 25 年计划继续将 HBM 产能扩大 2 倍,而根据韩国经济日报 24 年 3 月 28 日报道,三星管理层在 Memcon 2024 宣布上调 24 年 HBM 产能预期至 23 年的 2.9 倍。积极扩产之下,积极扩产之下,HBM 工艺将成为三星能否获得更多份额的关键因素:工艺将成为三星能否获得更多份额的关键因素:1)制程:)制程:美光和海力士均在 HBM3E 中采用 1-nm(第五代 10nm)制程,而三星 HBM3E仍采用 1-nm(第四代 10nm)。对于存储芯片,制程工艺的迭代带来内存密度的提升,同时降低芯片的功耗与发热,带来更好的能耗表现。我们
182、前文提及 HBM 的垂直堆叠对芯片散热带来的挑战,而三星在制程上的短板或影响其 HBM 对大客户吸引力;2)键合:)键合:在键合工艺的竞争中,三星 HBM 键合仍采用 TC-NCF 工艺,该过程需要高温高压环境将凸点(bumps)推入非导电薄膜,在 HBM 对叠层数增加,单个 DRAM 高度减少的情况下更易导致芯片翘曲,进而影响良率。根据 Digitimes 24 年 3 月新闻,三星虽然也曾尝试 MR-MUF 技术,但未能解决翘曲问题,因此至今仍采用 TC-NCF 技术,同时,三星目前虽导入部分 MUF材料和相关设备,但 Digitimes该篇报道同时指出,三星所关注的 MUF材料与海力士并
183、非完全相同的技术,可能应用于非 HBM 领域。因此,如何改良或替代现有的 TC-NCF 键合仍将是三星需要攻克的难题。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。33 美光科技美光科技(MU US)图表图表54:TC(热压)键合工艺原理示意(热压)键合工艺原理示意 资料来源:Yiu Ming Cheung(2013.10):Solder Joint Integrity of TC-NCP Thermo-compression Bonding Process、华泰研究 HBM4:三大厂商方案齐出,混合键合延迟导入影响几何?:三大厂商方案齐出,混合键合延迟导入影响几何?HBM4 是
184、是 HBM3E 下一代产品,当前行业标准尚未明确。下一代产品,当前行业标准尚未明确。综合三大厂商的技术路线图并结合 Toms Hardware 等媒体信息,HBM4 相较 HBM3E 在容量和带宽上均有提升,预期将提供 36-48GB(v.s.HBM3E 24/36GB)内存和 1.5-2TB/s 带宽(v.s.HBM3E 1.2TB/s),其技术实现主要基于键合层数的提高(16 层 v.s.HBM3E 12 层)及内存接口数目翻倍(2048位 v.s.HBM3E 1024 位),有望于 25 年推出并在 26 年实现量产。Toms Hardware 于 23 年 11 月援引韩媒中央日报报导
185、,海力士正在与包括英伟达在内讨论HBM4 集成设计方案,计划与英伟达合作开发新的 GPU,拟将拟将 HBM4 与与逻辑逻辑芯片芯片垂直堆叠垂直堆叠在一起,在一起,通过通过 3D 封装封装实现实现在单在单芯片芯片上存储上存储器与器与逻辑逻辑芯片芯片的垂直整合。的垂直整合。该设计:1)免去)免去HBM3E 设计中设计中围绕围绕逻辑逻辑芯片芯片堆栈所带来的中介层复杂布线需求,堆栈所带来的中介层复杂布线需求,从而简化设计并节约封装成本;2)同时可进一步提升封装密度)同时可进一步提升封装密度(在同样面积上铺设更多数量的元器件),缩小封装尺寸;3)3D 封装采用更细小、更密集的电路,封装采用更细小、更密集
186、的电路,缩短线路之间的传输距离,提升指令的相应速度和降低功耗。然而 Toms Hardware 该篇报道亦指出,将存储器与逻辑芯片垂直整合的设计带来一定优越性的同时,因为在较小的封装体内堆叠多个芯粒,对散热也提出更高要求。参考采用V-Cache(将一块 L3 Cache 置于 CPU 顶部)的 AMD CPU,通过对架构和硅平面的优化来缓解散热问题,例如 AMD 在 SRAM 单元中设计了 3D 64MB SRAM(Static Random Access Memory),并避免其堆叠以保持低热密度,两侧采用了结构硅从高密度核心中逸出热量,并可通过控制芯片 TDP 和主频以补偿垂直堆叠产生的额
187、外热量,不过,HBM 与 GPU的功耗远高于 CPU,集成时的散热考量将更为复杂,因此合适的散热方法将是该设计成功的关键。图表图表55:对比第五代产品对比第五代产品 HBM3E,第六代产品,第六代产品 HBM4 有望实现存储有望实现存储器和器和逻辑逻辑芯片芯片的垂直堆叠的垂直堆叠 资料来源:Toms Hardware、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。34 美光科技美光科技(MU US)图表图表56:AMD V-Cache 原理原理 将将 L3 缓存置于缓存置于 CPU 顶部,两侧顶部,两侧硅片硅片用于用于芯片芯片加固和辅助散热加固和辅助散热 资料来源:海力
188、士官网、华泰研究 HBM4 的迭代将的迭代将带来带来三三方面挑方面挑战:战:1)芯片间键合工艺成为攻克关键,以应对散热和良率两大难题。16 层堆叠在提升堆叠层数的同时需要磨削单片 DRAM 高度,并尽量缩小 DRAM间距,以控制产品尺寸。TF-NCF 等上一代键合工艺亟待改良,混合键合有望成为主流技术;2)2048 位内存接口要求中介层(Interposer)布线更加复杂,如何连接 HBM 堆栈和逻辑芯片带来不同设计方案,海力士和三星探索存储器和逻辑芯片垂直集成;3)2048 位内存接口及带宽提升同样需要单位面积上更多的 TSV 穿孔以提升 DRAM 堆栈的垂直互联密度。铜铜-铜混合键合(铜混
189、合键合(Cu-Cu Hybrid Bonding)代替微凸点,提升)代替微凸点,提升 I/O 密度、散热性能和能耗密度、散热性能和能耗表现,在表现,在 HBM 层高不断增加的趋势下更适应应用场景。层高不断增加的趋势下更适应应用场景。微凸点技术下,芯片间通过上下凸点的焊接实现互连,而混合键合则实现无凸点(Bumpless),上下芯片间采用铜垫片直接连接。因为不依赖焊料,铜-铜混合键合可实现超细间距和更小的接点尺寸,从而实现单位面积上更多的接点数量。根据 Semianalysis 和 3D InCites,混合键合实现的单位面积接点数量是微凸点的 1000 倍,以达到更高的 I/O 密度。微凸点的
190、焊料会在上下芯片间带来大于30 微米的间距,而铜垫片因为上下直接接触不存在焊料球,芯片间间距可控制在 10 微米,同时混合键合的散热效率相较微凸点提升约 20%。图表图表57:微凸点和混合键合横截面对比,混合键合无焊料球微凸点和混合键合横截面对比,混合键合无焊料球 图表图表58:混合键合相较微凸点的混合键合相较微凸点的 I/O 密度提升密度提升 资料来源:Dr.Navid Asadi(2022.10):Hybrid Bonding for Advanced 3D IC Packaging、华泰研究 资料来源:Yoon-Gu Lee(2023.4):Copper Bonding Technolo
191、gy in Heterogeneous Integration、华泰研究 我们认为,存储和晶圆代工的合作将是混合键合引入我们认为,存储和晶圆代工的合作将是混合键合引入 HBM4 的的必经之路,我们前文所述海必经之路,我们前文所述海力士与台积电合作推进力士与台积电合作推进 HBM4 研发、三星电子整合存储和晶圆代工研发、三星电子整合存储和晶圆代工以服务以服务 HBM4,就是该,就是该模式的直接体现。模式的直接体现。混合键合工艺流程可简略归纳为:1)通过化学气相沉积(Chemical Vapor Deposition CVD)和电镀在基底表面形成绝缘层和铜层;2)通过化学机械研磨(Chemical
192、-Mechanical Polishing CMP)、清洗和离子活化后,将上下两片晶圆/芯片的铜接点对齐;3)施压后将芯片间绝缘层贴合,两边绝缘层接触后产生共价键;4)经退火(Annealing)升高温度后,铜接点碰撞并接合,两边铜离子相互扩散(Diffusion)进入对方完成键合。在键合过程中,CMP 平坦化不足、清洗不足使得表面残留颗粒、对其误差和金属表面孔隙等均有可能影响元件特性或使得元件失效。根据根据 Semianalysis 24 年年 2 月月 9日的分析,混合键合的工艺流程涉及许多传统上仅由晶圆代工厂专用的工具日的分析,混合键合的工艺流程涉及许多传统上仅由晶圆代工厂专用的工具,例
193、如 CVD、CMP 和表面离子活化等,存储厂商较难在短期内配备大规模生产条件,同时其工艺要求较高,如清洗工艺要求需要 ISO 3 及以上(等级数字越小越严苛,如台积电和 Intel 正逐步转向 ISO 2 和 ISO 1 级别),使得传统存储厂商难以承接混合键合。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。35 美光科技美光科技(MU US)图表图表59:混合键合的工艺流程:电镀混合键合的工艺流程:电镀-CMP 及清洗及清洗-离子活化离子活化-对齐并施压贴合对齐并施压贴合-退火使铜接点膨胀并接合退火使铜接点膨胀并接合-铜离子相互扩散完成键合铜离子相互扩散完成键合 资料来源:3D
194、 InCites、Digitimes、华泰研究 然而,鉴于铜然而,鉴于铜-铜混合键合工艺复杂,为确保第一代铜混合键合工艺复杂,为确保第一代 HBM4 在在 26 年落地,混合键合导入年落地,混合键合导入 HBM生产或被推迟。生产或被推迟。根据 ZDNet Korea 24 年 3 月 8 日报道,JEDEC 的主要参与者将 12 层和16 层 HBM4 的封装厚度标准放宽至 775 微米(对比上一代的 720 微米)。该标准放宽是三星、海力士和美光等内存厂商与英伟达、AMD、Intel 等主要 AI 芯片公司合作磋商的结果。内存厂商宣称上一代 720 微米厚度已到达极限,在 775 微米的条件
195、下,现有的 MR-MUF和 TC-NCF 键合工艺仍可用于生产 HBM4,因此放宽标准将给予三大内存厂商更多时间完成混合键合的核心工艺开发和初始良率调整,而 AI 芯片公司接受该提案以便按时获得HBM4。我们认为,从内存厂商角度看,混合键合的设备要求与三星、海力士和美光现有的键合设备和技术区别较大,ZDNet Korea 24 年 3 月报道指出混合键合设备比现有的 TC 键合机价格高出四倍,因此需要高昂资金成本配置。而初期设备落地后在键合良率上同样面临压力,需要额外的时间成本。从 AI 芯片厂商角度来看,鉴于芯片迭代和出货需求,比起施压存储厂商应用混合键合生产 HBM4,接纳标准放宽以顺利推
196、进芯片迭代和稳定 HBM 供应也是情理之选。除此之外,我们也认为,假设现阶段存储厂商放缓键合工艺迭代,节省的成本(混除此之外,我们也认为,假设现阶段存储厂商放缓键合工艺迭代,节省的成本(混合键合设备及厂房配置开支等)或将服务于合键合设备及厂房配置开支等)或将服务于 HBM 进一步扩产,三大产商扩产动态值得进一进一步扩产,三大产商扩产动态值得进一步关注。步关注。对于对于三大厂商三大厂商而言,混合键合的延迟导入或许是把“双刃剑”而言,混合键合的延迟导入或许是把“双刃剑”,机遇和风险并存,机遇和风险并存。一方面,海力士仍可凭借 Advanced MR-MUF 取得相对三星和美光的良率领先,节约的成本
197、亦可帮助其扩产以维持 HBM 市场份额,而另一方面,混合键合的延迟导入将给予美光和三星与海力士在键合工艺上重回“同一起跑线”的机会。HBM4 的竞争或许会更加激烈。图表图表60:HBM 三大厂商三大厂商 SWOT 分析分析 SK 海力士海力士 三星三星 美光美光 优势优势 Strengths 1.HBM 龙头,品牌形象和以英伟达为代表扎实的客户基础 2.研发实力累积,MR-MUF 键合技术相较竞争对手领先 3.与台积电和英伟达不构成竞争,率先合作开启 HBM4 定制化进程 1.资金雄厚,HBM 扩产激进,产能追赶节奏快,承接 AMD MI300 系列 HBM 需求 2.集存储、AI 芯片设计、
198、晶圆代工和封装为一体,承接自研芯片市场的 HBM 需求 3.晶圆代工业务技术反哺 HBM,混合键合导入或更加迅速 1.英伟达扶持作为“二供”,承接大量 HBM需求,并以此有望进一步拓展客户 2.HBM 业务近乎“从无到有”,受益 HBM市场迅速增长带来更高增长弹性 3.布局中国台湾,与中国台湾供应链合作紧密,同时亦与台积电和英伟达不构成竞争 劣势劣势 Weakness 1.依赖 AI 带动 HBM 关键市场,传统DRAM 和 NAND 竞争力较三星有限 2.资金较三星更少,HBM 未来扩产步伐或不及三星 3.依赖台积电 CoWoS 产能,供应链管理存在不确定性 1.与台积电和英伟达部分竞争,与
199、二者合作不及竞争对手紧密 2.制程短板影响 HBM 性能,或影响对大客户吸引力 3.TC-NCF 键合良率低,单位 HBM 的晶圆损耗大,蚕食其余 DRAM 产能 1.HBM 起步晚,技术积累不及竞争对手 2.当前客户单一,仅确认供货英伟达,多元化有限 3.TC-NCF 键合良率低,单位 HBM 的晶圆损耗大,蚕食其余 DRAM 产能 机会机会 Opportunities 1.生成式 AI 牵动大模型浪潮,膨胀的内存需求带来 HBM 高速增长的 TAM 2.AI 数据中心对加速计算应用的扩张,以及多模态推理需求增加 3.HBM 短期仍供不应求,ASP 较传统 DRAM 更高,带来利润率优化空间
200、 4.需求不拘泥 GPU,ASIC 市场对 HBM 同样需求广阔 威胁威胁 Threats 1.重大技术转变,如光通信和量子计算,或对需求带来颠覆式影响 2.HBM 高定价带来客户定位狭窄,除却高端 HBM 或难以铺开,同时扩产后供给缺口不再,未来存在被压价可能 3.存在其余 DRAM 厂商进入市场分食市场份额的可能 资料来源:华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。36 美光科技美光科技(MU US)DRAM:制程精进制程精进+端侧端侧 AI 驱动的创新路线驱动的创新路线 我们预计美光我们预计美光 DRAM 业务业务 FY24/25/26 营收营收为为 178/
201、278/320 亿美元,对应营收同比为亿美元,对应营收同比为62.3%/56.2%/15.1%。美光 DRAM 业务 FY23 营收同比下降 51%,主要受疫情初期带来的电子产品需求见顶后的高基数影响。展望 24 年,24 年各终端应用与半导体市场以 AI 需求为核心驱动:1)智能手机)智能手机 24H1 为传统淡季,呈现缓步复苏趋势,AI 手机(如三星 Galaxy S24)表现亮眼;2)PC 24Q1 出货量已基本恢复至 19Q1 水平,24H1 PC 市况已经逐步好转,虽然需求大规模增长尚未出现,但 24H2 PC 市场可望迎来进一步复苏;3)传统服)传统服务器务器逐渐回温,订单能见度从
202、原本 4-6 周提高至 8 周,AI 服务器服务器订单受北美需求拉动持续放量,24Q2 起英特尔 Eagle Stream 和 AMD 服务器 DDR5 新平台渗透率持续提升。我们预计经过我们预计经过 23 年供应端主动减产以及下游对高端产品补库需求,年供应端主动减产以及下游对高端产品补库需求,24 年存储行业将逐步年存储行业将逐步 迈入新一轮上行周期,迈入新一轮上行周期,DRAM ASP 和需求周期性回暖,带动供应端产能逐渐恢复,“供销和需求周期性回暖,带动供应端产能逐渐恢复,“供销两旺”趋势或在两旺”趋势或在 24H2 至至 25 年明朗。年明朗。根据 Digitimes 24 年 4 月
203、报道,主流 DRAM 厂商自24Q2起持续扩大DRAM晶圆投片量,预计24Q3和24Q4稼动率或提升至100%。Digitimes该篇报道指出 DRAM 晶圆投片到产品出货间隔约 3 个月,24Q2 起主流厂商扩大投片,应当是预期 24H2 需求稳固,24H2 产能恢复后将自 24 年底起至 25 年对 DRAM 业绩带来积极影响。回到回到 24Q2,短期短期内受内受 4 月月 3 日日中国中国台湾台湾强震对供应链影响,强震对供应链影响,DRAM ASP 或见较大涨幅,或见较大涨幅,根据 Digitimes 24 年 4 月 15 日至 17 日系列报道,该次地震对美光厂房和基础设施未造成永久
204、影响,单季 DRAM 供应影响约为 4%-6%,鉴于 DRAM 厂商原先已有 24Q2 DRAM ASP调升 10-15%规划,叠加地震影响,24Q2 美光 DRAM 合约价将调涨 25%,整体主流 DRAM合约价调涨约 20%。我们认为我们认为,美光美光 DRAM 业务将迎来以下利好业务将迎来以下利好,核心仍是,核心仍是 AI 驱动驱动:1)AI 手机、手机、AI PC 和和 AI 服务器等新需求带来以服务器等新需求带来以 DDR5 和和 HBM 为主导的为主导的 DRAM 市场增长市场增长新动能。新动能。根据 Digitimes 24 年 3 月 12 日报道并结合美光 FY24Q2 业绩
205、会信息,23 年终端需求放缓以及下游着重去库存,导致 DDR5 在服务器和终端测渗透率爬升不及预期,而伴随新服务器平台推出、AI PC 和 AI 手机陆续问世以及换机潮带动,24 年 DDR5 整体渗透率有望从个位数比重进入两位数。该篇报道指出 DDR5 在 24 年初仍处于供不应求,24Q1 约有 3%的供给缺口,伴随存储厂商陆续恢复增产,预期 24Q2 起缺口收敛至 1%,24H2 产能将持续开出,伴随 DDR5 在服务器和终端侧渗透率快速提升,下游需求可望消化新增产能,从而维持 DDR5 ASP 涨势。2)通用服务器需求或见回暖,)通用服务器需求或见回暖,Windows 10 终止服务及
206、终止服务及 Windows 12 的推出将对的推出将对 PC 需需求有拉动作用,求有拉动作用,24H2 传统设备需求或进一步复苏,带动传统传统设备需求或进一步复苏,带动传统 DRAM 逐步需求修复。逐步需求修复。24H1通用服务器需求“淡季不淡”,北美云厂商 23H2 因竞价 AI 服务器,排挤通用服务器预算,因此 24H1 将重启新一轮通用型服务器布局。其中,其中,DDR5 方面,方面,北美云厂商积极推进通用服务器上 Eagle Stream 及 Genoa 等新平台导入,其中以谷歌和微软采购力度较大;DDR4等传统等传统 DRAM 方面,方面,结合台积电 24Q1 和美光 FY24Q2 业
207、绩会信息,DDR4 于 23 年持续进行库存调节,尽管下游库存水平逐渐恢复健康,短期内成熟制程产品(如中低端服务器和消费电子产品)需求增长并不强劲,故美光仍不倾向恢复产能,叠加 HBM 和 DDR5 需求增长产生 DRAM 产能排挤,FY24 美光将对 DDR4 和 DDR3 等传统 DRAM 保持积极的产能控制。美光作为美光作为 DRAM 三大厂商之一,各产品线布局完善,除却面向三大厂商之一,各产品线布局完善,除却面向 HPC 高容量、高带宽场景高容量、高带宽场景的的 HBM3E,其,其 DRAM 产品可依使用场景分为通用内存(产品可依使用场景分为通用内存(DDR)及对应内存模组()及对应内
208、存模组(DIMM)、)、低功耗内存(低功耗内存(LPDDR)和显存()和显存(GDDR):):1)DDR 作为通用内存,作为通用内存,面向服务器 CPU、云计算、网络及 PC 等场景,依封装格式不同,可以分为置于内存模块组的 DIMM 和封装在基板上与逻辑芯片交互的分立式 DRAM(DRAM on PCB)。美光作为 DRAM 原厂,除了少 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。37 美光科技美光科技(MU US)部分利基型 DRAM 颗粒交由晶圆代工厂生产,绝大部分 DRAM 颗粒(die)自行投片制造,颗粒成品一部分出售给下游模组厂封装成 DIMM 后流入市场,另一部
209、分自行封装为 DIMM直接向终端厂商(如 Dell、惠普和宏碁)出售;2)LPDDR 是是 DDR 面向低功耗场景的衍面向低功耗场景的衍生生,以其相较 DDR 更佳的能耗比,在笔记本和智能手机等移动平台上被广泛采用;3)GDDR是是 DDR 面向高带宽场景的衍生面向高带宽场景的衍生,多与 GPU 搭配成为其“显存”。GPU 工作场景有大量的重复存取需求,尤其是运行图像/游戏时 GPU 和显存数据交换频繁,画面材质和纹理等特征对显存带宽和容量要求更高,GDDR 应运而生。图表图表61:DRAM 产业结构(以产业结构(以 PC 为例)为例):美光属于:美光属于 DRAM“原厂”,即绝大部分“原厂”
210、,即绝大部分 DRAM 颗粒的来源颗粒的来源 资料来源:ISCA2016 Samsung、华泰研究 图表图表62:GDDR 和和 LPDDR 相较相较 DDR 在数在数据传据传输速率和功耗方面针对性演化输速率和功耗方面针对性演化 资料来源:ISCA2016 Samsung、华泰研究 图表图表63:美光美光 DRAM 布局及未来发展路线布局及未来发展路线 资料来源:美光官网、华泰研究 带宽容量低 功率 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。38 美光科技美光科技(MU US)头部厂商主动减产效应显现,头部厂商主动减产效应显现,DRAM ASP 23H2 以来迎来修复以来迎来
211、修复 DRAM 下行周期中下行周期中 DDR5 相较相较 NAND 恢复提前,恢复提前,23H1 见底后开始回升,见底后开始回升,24Q1 ASP 明显明显改善,而改善,而 DDR4 和和 DDR3 与与 NAND 基本同步。基本同步。根据 Bloomberg Intelligence 24 年 3 月数据及 Trendforce 24 年 1 月统计,DRAM ASP 自 21Q4 开始下跌,连跌 8 季后于 23Q4 触底起涨,相较峰值水平下降约 60%。23H2 以来,DRAM 行情逐步回暖,分产品代际来看:1)DDR5:伴随供应端迎合高端产品补库需求,加速产品规格升级,提升获利能力,D
212、DR5出货量占比升高,渗透率持续提升,DDR5 ASP 于 23Q2 先行回升,24Q1 以 AI 为驱动的DDR5 需求仍然保持,叠加轻微供不应求,24Q1 ASP 环比增长逾 15%;2)DDR3 和和 DDR4:受限于 23 年库存水位有待去化,以及需求总量减少,终端市场价格上涨缺乏支撑,ASP 在23Q4 才开始回升,同时供应商持续收敛 DDR4 供给量,24Q1 ASP 环比增长约 7%。而以应用场景来看:1)LPDDR 的价格在 23Q4 开始回升,根据 Trendforce 24 年 1 月报道,LPDDR 买方更倾向持续建立安全且相对低价的库存水位,因此 23Q4-24Q1 不
213、断放大补库需求,24Q1 ASP 环比增长约 20%;2)PC DRAM 价格在 23Q4 开始回升,根据Trendforce 24 年 1 月报道,由于 PC 机种逐渐升级至 DDR5,订单需求尚未被满足,因此三大内存厂商涨价态度明确,24Q1 ASP 环比增长约 18%;3)服务器)服务器 DRAM 价格在 23Q4开始回升,根据 Digitimes 24 年 4 月报道,服务器 OEM 和 ODM 24Q1 积极开展库存回补,同时类似 PC,DDR5 市场需求仍未全面兑现,拉动 24Q1 ASP 环比增长约 20%;4)GDDR和利基型和利基型 DRAM:根据 Trendforce 24
214、 年 1 月报道,两者行情均受整体 DRAM ASP 涨势影响,买方持续提前备货,叠加部分厂商和电视、网通应用存在补库需求,24Q1 ASP 环比增长分别为 13%-18%和 10%-15%。图表图表64:DDR3 和和 DDR4 近近 4 年价格变化情况(单位:美元)年价格变化情况(单位:美元)图表图表65:DDR5 近近 1 年价格变化情况(单位:美元)年价格变化情况(单位:美元)资料来源:Bloomberg Intelligence、华泰研究 资料来源:Bloomberg Intelligence、华泰研究 图表图表66:LPDDR 近近 4 年价格变化情况(单位:美元)年价格变化情况(
215、单位:美元)图表图表67:PC DDR4 对比服务器对比服务器 DDR4(单位:美元)(单位:美元)资料来源:Bloomberg Intelligence、华泰研究 资料来源:Bloomberg Intelligence、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。39 美光科技美光科技(MU US)展望展望 24Q2,短期内受,短期内受 4 月月 3 日日中国中国台湾台湾强震对供应链影响,强震对供应链影响,DRAM ASP 或见较大涨幅。或见较大涨幅。根据 Digitimes 24 年 4月 15 日至 17 日系列报道,虽然 23Q4-24Q1 DRAM ASP
216、涨幅明显,但客户需求并未下滑,报道同时指出,存储业界在台湾震前预期由于 23 年产能控制,24Q2 DRAM 出货量将较 24Q1 环比减少,而北美 AI 服务器需求强劲,通用服务器重启投资,供应端届时将调涨 DRAM 报价,预期环比涨幅约为 10%-15%。台湾台湾强震对强震对 DRAM 供应链影供应链影响则进一步催化涨幅,响则进一步催化涨幅,根据 Digitmes 24 年 4 月 16 日跟进美光震后恢复情况,该次地震对美光厂房和基础设施未造成永久影响,地震停机及晶圆损毁造成影响约为数千片,对 24Q2 美光 DRAM 供应影响约为 4%-6%。因此,鉴于 DRAM 厂商原先已有 24Q
217、2 DRAM ASP 调升规划,叠加地震影响,Digitimes 24 年 4 月 16 日报道供应链证实 24Q2 美光 DRAM 合约价将调涨 25%,各家 DRAM 供应商涨势一致,整体主流 DRAM 合约价调涨约 20%。图表图表68:23Q4-24Q1 DRAM 合约价见较大涨幅,合约价见较大涨幅,24Q2 DRAM 合约价合约价环比涨幅或逾环比涨幅或逾 20%DRAM 2023Q4 2024Q1 2024Q2 PC DRAM DDR4:涨价 8-13%DDR4:涨价 15-20%DDR5:涨价 10-15%DDR5:涨价 15-20%-平均售价:涨价 10-15%平均售价:涨价 1
218、0-15%服务器服务器 DRAM DDR4:涨价 5-10%DDR4:涨价约 20%;DDR5:涨价 0-5%DDR5:涨价 15-20%;-平均售价:涨价 8-13%平均售价:涨价 15-20%移动移动 DRAM 涨价 18-23%涨价 18-23%-GDDR 涨价 8-13%涨价 13-18%-利基型利基型 DRAM 涨价 8-13%DDR3:涨价 8-13%-DDR4:涨价 10-15%平均售价:涨价 10-15%总总 DRAM 涨价涨价 13-18%涨价涨价 20%涨价涨价逾逾 20%资料来源:Trendforce、Digitimes、华泰研究 AI 拉动拉动 PC、手机以及服务器出货
219、量,撬动、手机以及服务器出货量,撬动 DRAM 需求增长需求增长 PC 市场触底反弹,市场触底反弹,Windows 系统换代拉动换机潮系统换代拉动换机潮 我们认为,在这波我们认为,在这波 AI 端侧设备的崛起过程中,端侧设备的崛起过程中,AI PC 或率先成为主力,鉴于其在散热和应或率先成为主力,鉴于其在散热和应用场景均具备优势,而用场景均具备优势,而 AI 手机将紧随其后。手机将紧随其后。热传导和热对流为目前手机及电脑的主流散热方案,而手机相对电脑散热面积小,热传导及热对流效率较低,因此在散热性上较逊色,且手机便携性需求高,设计以轻薄为首也限制了散热系统的部署。PC 市场市场 24H2 或开
220、始复苏,美光或开始复苏,美光 FY24Q2 业绩会预期业绩会预期 24 年年 PC 出货量同比增长出货量同比增长 1%-3%。我们认为目前随着疫情后 PC 出货量已由高基数回落,加上 23H2 PC 库存开始恢复正常水平,且 Windows 系统换代及 AI PC 崛起,均将带动换机潮出现,但 PC 需求回暖和 AI PC普及并非一蹴而就,短期企业换机支出或依旧保守,因此需等到 24H2 才会出现更明显的回暖信号。DRAM 作为作为 PC 供应链上游,尽管供应链上游,尽管 PC 需求总量增长较小,需求总量增长较小,AI PC 渗透率尚待提渗透率尚待提升,但换机(升,但换机(PC 规格升级)和规
221、格升级)和 AI PC 布局准备将带动下游厂商提前备货及硬件调试,使布局准备将带动下游厂商提前备货及硬件调试,使得在未来相关端侧得在未来相关端侧 AI 应用上线之后,相关硬件设备能即时兼容,因此端侧应用上线之后,相关硬件设备能即时兼容,因此端侧 AI 相关的相关的 DRAM产品(如产品(如 DDR5、LPDDR5X 和和 LPCAMM2)将显著受益。)将显著受益。IDC 在 2024 年 3 月 6 日发布的预计中,下调了 2024 年全球 PC 出货量至 2%的同比增幅;23Q3 全球个人电脑出货量为 6820 万台,同比虽下降 7.6%,但下滑趋势放缓,环比则增长 7.8%,连续两个季度出
222、现环比上涨趋势(23Q2 的环比增长为 8.3%);23Q4 全球个人电脑出货量为 6710 万台,同比下降 0.1%,环比下降 1.4%;24Q1 全球个人电脑出货量为5980 万台,同比上升 5.1%,环比下降 10.9%,恢复至 19Q1 水平。我们认为整体趋势表明 PC 市场已走出低谷,24H1 PC 市况已经逐步好转,虽然需求大规模增长尚未出现,但24H2 PC 市场可望迎来进一步复苏。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。40 美光科技美光科技(MU US)图表图表69:全球全球 PC 出货量:出货量:23H2 以来回温(百万,以来回温(百万,%)资料来源:I
223、DC、华泰研究 图表图表70:23 年主流年主流 ODM/OEM 库存基本出清,库存基本出清,24Q1 库存水位略高于疫情前水平库存水位略高于疫情前水平 资料来源:Bloomberg、华泰研究 Windows 10 即将终止服务及即将终止服务及 Windows 12 和和 co-pilot 的推出将对的推出将对 PC 需求有拉动作用。需求有拉动作用。微软已确定将于 2025 年 10 月 14 日终止对 Windows 10 的支持,其后用户虽仍可使用Windows 10,但微软不会再为其推出安全更新,这意味着该版本将会暴露于各种安全风险之中,我们认为这将触发换机需求,拉动 PC 出货量。另外
224、,根据 PC Gamer 官网 2023年 10 月 6 日报道,Windows 12 或将在 2024 年推出,我们认为新一代操作系统叠加 co-pilot的推出,将有望进一步拉动 PC 需求。AI PC 崛起,渗透率未来可期,或成未来崛起,渗透率未来可期,或成未来 PC 销量增长的主要动力销量增长的主要动力 英特尔于英特尔于 23 年年 9 月月 19 日的日的 Innovation 大会上首次提出大会上首次提出“AI PC”概念概念,端侧端侧 AI 加速将成加速将成为未来为未来 PC CPU 市场的关键转折点。市场的关键转折点。根据 Counterpoint 官网 2023 年 10 月
225、 17 日预测,AI PC 的出货量在 20202030 年的 CAGR 将达到 50%以上,并将从 2026 年起占据市场主导地位。根据 Canalys 官网 2023 年 9 月 18 日的预测,受苹果 M 系列芯片积极整合 NPU推动,截至 23Q2 支持 AI 应用的 PC 已超过 500 万台;而随着 x86 架构也开始增强其 AI功能,AI PC 出货量 2024 年迎来大幅提升,Digitimes 24 年 4 月 11 日援引 Canalys 预测,2024 年将有 5000 万台具有 AI 运算功能的 PC 出货。60 62 67 68 58 65 70 72 53 72 8
226、1 92 84 84 87 93 81 71 74 67 57 62 68 67 60-0.2%3%-1%-3%-3%4%4%5%-9%11%15%28%58%16%7%1%-4%-15%-14%-27%-29%-14%-8%-0.1%5.1%-40%-30%-20%-10%0%10%20%30%40%50%60%70%0070809010018Q118Q218Q318Q419Q119Q219Q319Q420Q120Q220Q320Q421Q121Q221Q321Q422Q122Q222Q322Q423Q123Q223Q323Q424Q1全球PC出货量YoY01,0002
227、,0003,0004,0005,0006,0007,0008,0009,00010,00019Q119Q219Q319Q420Q120Q220Q320Q421Q121Q221Q321Q422Q122Q222Q322Q423Q123Q223Q323Q424Q1DELLHP联想华硕 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。41 美光科技美光科技(MU US)PC 厂商正在积极探索从厂商正在积极探索从 Smart PC 向向 AI PC 转变,扩展丰富的转变,扩展丰富的 AI PC 应用场景应用场景,联想提联想提出“出“All For AI”战略,全栈智能布局全面升级。”战略,全
228、栈智能布局全面升级。2023 年 10 月 24 日,联想在 Lenovo Tech World 2023 上首次展示了 AI PC、大模型压缩技术、人工智能双胞胎(AI Twin)等创新产品。联想 AI PC 计划于 2024 年 9 月后正式上市。AI Twin 是可在多平台、多环境上运行的对话个人 AI 助手,可通过压缩模型在大模型终端设备上离线运行,譬如参考用户的旅行日记和笔记,为用户提供更个性化的旅行计划。混合 AI 大模型框架包括私域大模型的微调、个人大模型的压缩以及数据管理+隐私保护技术等 3 项技术,让企业可通过特定数据进行额外的训练和微调,在端侧再加入企业知识矢量数据库中的特
229、定知识,从而有效处理特定任务,并得到精确的结果。AI Twin 和大模型压缩技术可跨终端、跨平台、跨架构,让个人在终端体验到 AI,而升级的基础设施和应用服务,则能让企业使用 AI。图表图表71:各各 AI 巨头亮相大会,与联想携手推进巨头亮相大会,与联想携手推进 AI 发展发展 注:从左到右依次为微软董事长兼 CEO Satya Nadella,英伟达创始人、总裁兼 CEO 黄仁勋,高通总裁兼 CEO Cristiano Amon,AMD 董事长兼 CEO 苏姿丰,英特尔 CEO Pat Gelsinger 资料来源:联想官网、华泰研究 当然,当然,AI PC 渗透并非一蹴而就,根据渗透并非
230、一蹴而就,根据 Digitimes 24 年年 3 月月援引援引中国中国台湾台湾 IC 业界观点,业界观点,预期预期 AI PC 24 年渗透率约年渗透率约 5%。报道指出,由于当前 AI PC 尚无明确定义,24 年各厂商难以推出符合规格的产品,若以能够运转边缘生成式 AI 模型的 PC 产品做初步判断,多数业者认为在应用面仅有Co-pilot支撑全局的情况下,AI PC需求爆发的时机尚未成熟。但同时,但同时,报道称业界对报道称业界对 AI PC 相关相关芯片出货看法相对乐观,芯片出货看法相对乐观,鉴于 AI PC 的硬件端升级要早于相关应用落地,24 年 PC 整体规格升级需求将有显著提升
231、,许多原定在 2023 年导入的新技术延期至 2024 年,带动 ODM 和 OEM 提前备货建立库存。展望展望 2025,各大各大芯片和芯片和 PC 厂商纷纷进军厂商纷纷进军 AI PC,促进商业化落地节奏,促进商业化落地节奏,25 年年 AI PC 将在将在个人电脑市场占据重要份额。个人电脑市场占据重要份额。微软预计 Co-pilot 等 AI 应用将在 Windows 使用中日益重要,并鼓励相关芯片制造商将 AI 功能构建到 CPU 中。联想目前 AI 已扩展到各类中高端产品系列,如 YOGA、游戏本 Legion、中小企业用户 ThinkBook 和商用 ThinkPad 等产品系列。
232、ThinkPadX1 系列和 YOGA 系列中的第一代产品都符合联想提出的智能 PC 理念。苹果则考虑每年花费 10 亿美元开发其生成式 AI 产品,积极推进 5G 芯片在 MacBook Pro 产品线上的落地,公司预计发布时间在 2025 年。惠普、宏碁等也进一步加大与关键软件服务商和芯片供应商合作,将重新设计 PC 架构,相关 AI 笔记本方案会将在 2024、2025 年陆续推出。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。42 美光科技美光科技(MU US)图表图表72:AI PC 出货量在出货量在 20202030 年的年的 CAGR 将达到将达到 50%以上以上
233、图表图表73:2023-2023 年年 AI PC 创新扩散曲线创新扩散曲线 资料来源:Counterpoint 官网、华泰研究 资料来源:Canalys、华泰研究 图表图表74:各各 PC 厂商厂商 AI PC 上市节奏上市节奏 厂商厂商 AI PC 上市节奏上市节奏 联想联想 2023 年 10 月 14 日,联想展示 AI PC,能创建个性化的本地知识库,通过模型压缩技术运行个人大模型,实现 AI 自然交互;联想 AI PC 预计在 2024 年 9 月后正式上市 苹果苹果 苹果有望每年花费 10 亿美元来开发其生成式人工智能产品,并加速 5G 芯片在 Macbook Pro 产品线上的
234、落地,以促进 AI PC 在线需求,预计在 2025 年发布 惠普惠普 惠普正与关键软件供应商、关键芯片提供商展开紧密的合作,探索和重新设计 PC 的架构,最早会在 2024 年推出全新 PC 宏碁宏碁 宏基目前已经与 CPU 厂商展开合作,预计将把 AIGC 或其他 AI 应用导入到终端设备上,相关 AI笔记本方案会在 2024、2025 年陆续推出 戴尔戴尔 戴尔宣布与英伟达合作推出新的生成式 AI 解决方案,帮助客户在本地快速安全地构建生成式 AI(GenAI)模型;此外将发布内置 AI 功能的小型节能新电脑 资料来源:各公司公告、华泰研究 图表图表75:英特尔英特尔 AI PC 产品规
235、划参数对比产品规划参数对比 *注:Intel 18A 为公司官方规划,TSMC N3B 援引自 Toms Hardware 报道推测。资料来源:英特尔官网,Anandtech 官网,Videocardz 官网,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。43 美光科技美光科技(MU US)AI 手机引领旗舰潮流,中端机种开始全面渗透,拉动手机引领旗舰潮流,中端机种开始全面渗透,拉动 LPDDR5X 需求需求 我们认为截至我们认为截至 24Q1,手机市场已经开始逐步复苏。,手机市场已经开始逐步复苏。根据 IDC 24 年 1 月数据,2023 年全球智能手机出货量为 1
236、1.6 亿部,同比虽下降 3%,但 23Q3 至 24Q1 连续 3 个季度呈现同比上涨趋势(23Q3/23Q4/24Q1 同比增长 0.3%/8.6%/7.7%),2024 年出货量预计同比增长2.8%。根据 Digitimes 23 年 3 月报道,2024 年全球 AI 手机出货量或增至 1.7 亿台,占手机市场出货比重达 14%-15%。美光美光 FY24Q2 业绩会透露业绩会透露 AI 手机相较传统非手机相较传统非 AI 旗舰机型多旗舰机型多出出 50%-100%的的 DRAM 需求,而鉴于手机功耗限制,因此带动需求,而鉴于手机功耗限制,因此带动 LPDDR5X 需求。需求。Digi
237、times 24 年 3 月 12 日报道指出,三星的 S24 手机 AI 应用仍相对“轻量化”,主要集中于照片编辑、翻译搜寻、写作助理等,而想在手机端顺畅运转 70 亿参数的 LLM 模型需要 7-8 GB DRAM 容量,相当于当前主流手机(8/12GB)的大部分内存,为维持其他功能正常运作,AI 手机的理想 DRAM 容量需达到 24GB。图表图表76:全球智能手机出货量:全球智能手机出货量:23H2 以来回温(百万,以来回温(百万,%)资料来源:IDC、华泰研究 手机相对电脑散热面积小,热传导及热对流效率较低,因此在散热性上具有天然劣势,且手机相对电脑散热面积小,热传导及热对流效率较低
238、,因此在散热性上具有天然劣势,且手机便携性需求高,设计以轻薄为首也限制了散热系统的部署。手机便携性需求高,设计以轻薄为首也限制了散热系统的部署。2023 年 9 月苹果推出的iPhone 15 Pro 系列,其散热问题或带出了 AI 手机在这方面的隐忧。iPhone 15 Pro 搭载的A17 Pro 为全球首颗台积电 3nm 制程的 ARM 架构 SoC 芯片,助力手机性能迎来突破性提升。在运算速度层面,CPU 提高了 10%,GPU 提高了 20%,NPU 处理速度增至 A16 仿生芯片的 2 倍,算力提升至 35 TOPS。根据 Gizchina 22 年 3 月的分析,出于机身轻薄设计
239、和美观需求,Iphone 系列的设计中通常不会分配大量空间配置散热材料,对比在安卓机型广泛配置的均热板仍采用石墨薄片以确保轻薄,同时更倾向于通过硬件和程序设计主动降频以缓解散热问题。图表图表77:功耗与频率测试:为应对机体过热,功耗与频率测试:为应对机体过热,A17 Pro 主动降频至主动降频至 A16 图表图表78:散热性能对比:散热性能对比:Iphone 系列对比安卓旗舰有系列对比安卓旗舰有较大差距较大差距 *注:测试为 SPEC 2017 子项-功耗与频率,频率和功耗波动带来性能表现不稳 资料来源:Geekerwan、华泰研究 *注:热量传递(W)数字大代表散热性能好,测试基于各机种 L
240、inpack 测试表现 资料来源:Geekerwan、华泰研究 33434235537532762783543863463286302300269265303326-14.3%-7.3%0.3%8.7%-20%-15%-10%-5%0%5%10%15%20%25%30%050030035040045018Q118Q218Q318Q419Q119Q219Q319Q420Q120Q220Q320Q421Q121Q221Q321Q422Q122Q222Q322Q423Q123Q223Q323Q4全球智能手机出货量YoY 免责声明和披露
241、以及分析师声明是报告的一部分,请务必一起阅读。44 美光科技美光科技(MU US)伴随伴随 Galaxy S24 在内的更多在内的更多 AI 手机问世,在手机问世,在 600 美元以上的旗舰机型渗透率有望达到美元以上的旗舰机型渗透率有望达到25%。以三星 24 年 1 月发布的 Galaxy 24 系列 AI 手机为例,Digitimes 24 年 3 月 28 日报道S24 Ultra、S24+等型号销量超标,预期24年S24系列较上一代机型销售额增长逾30%。应对散热问题,S24 系列相较 S23 系列配置了更大的散热板(真空腔均热板散热技术 Vapor chamber),根据三星官网,S
242、24 的散热板面积是 S23 的 1.5 倍,S24+的散热板面积为 S23+的 1.6 倍,S24 Ultra 的散热板面积达到 S23 Ultra 的 1.9 倍。同时,同时,Digitimes 24 年年 4 月月 12 日报道指出,伴随中国手机品牌入局日报道指出,伴随中国手机品牌入局 AI 手机,手机,AI 功能开始功能开始全面渗透进入中端手机市场。全面渗透进入中端手机市场。华为、小米、Vivo、Oppo 和荣耀等品牌同样加速 AI 手机产线的布局力度。2024 年 3 月底,一加发布 Ace 3V,搭载 Snapdragon 7+Gen 3 平台,售价为人民币 1,999 元起,开启
243、 AI 进入中端手机的大门;2024 年 4 月 9 日,努比亚举行 2024年春季新品发表会,将AI手机价格一举压到百元机款位阶;2024年4月10日,红米(Redmi)也在新款手机搭配 AI 功能,Redmi Turbo 3 搭载 Snapdragon 8s Gen 3 旗舰平台,搭配LPDDR5x+UFS4.0 内存架构,起售价为 1,999 元。从目前中端机 AI 功能来看,以 Redmi Turbo 3 为例,该机型提供 AI 通话、AI 隔空手势交互、智慧扩图、魔法消除 Pro、AI 相册等功能;其小爱大模型还配文本创作、文章摘要、知识问答、角色扮演等功能。图表图表79:三星三星
244、Galaxy S24 Ultra 对比对比 S23 Ultra 三星三星 Galaxy S24 Ultra 三星三星 Galaxy S23 Ultra 处理器处理器 高通骁龙 8 Gen 3 高通骁龙 8 Gen 2 内存内存 12GB LPDDR5X 8/12GB LPDDR5X 存储存储 256/512GB/1TB UFS4.0 256/512GB/1TB UFS4.0 电池电池 5000mAh 5000mAh 连接连接 NFC、WiFi 7、蓝牙 5.3、UWB NFC、WiFi 6E、蓝牙 5.3、UWB 资料来源:三星官网、华泰研究 图表图表80:三星三星 Galaxy AI 实现机
245、上实现机上 AI 功能功能 图表图表81:S24 和和 S23 散热板对比散热板对比 资料来源:三星官网、华泰研究 资料来源:Hardwarezone、华泰研究 图表图表82:A17 Pro 处理器性能提升处理器性能提升 资料来源:苹果官网、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。45 美光科技美光科技(MU US)AI 服务器需求强劲,通用服务器配置新平台引领换机潮服务器需求强劲,通用服务器配置新平台引领换机潮 服务器方面,服务器方面,2024 年服务器年服务器出货的出货的主要动能仍来自主要动能仍来自 AI 服务器,服务器,但但通用服务器通用服务器亦亦迎来换机迎
246、来换机潮。潮。根据 Digitimes 2024 年 1 月 2 日报道,2023 年一季度到四季度全球服务器出货量分别为 308.7/359.1/364.6/378.5 万台,环比分别-14%/-8%/1.5%/3.8%,2023 年下半年出货量回升主要由AI服务器带动。根据美光FY24Q2业绩会,24年服务器出货量预计增长7-10%,由 AI 服务器需求增长和通用服务器需求回暖共同拉动,同时,一台 AI 服务器的 DRAM 容量是通用服务器的 6-8 倍,因此快速增长的 AI 服务器需求将带动 DRAM 需求的高速增长。AI 服务器服务器 24 年需求维持强劲,年需求维持强劲,Trendf
247、orce 24 年 2 月估计 24 年 AI 服务器出货量同比两位数增长,占整体服务器出货的比重也将达 12.1%。AI 服务器动能同样可从台积电 24Q1 法说会预期略见一斑,台积电 24 年 4 月 18 日法说会预期 24 年服务器 AI 处理器(用于 AI训练和推理,不包含边端设备)营收贡献增长超 1 倍,24 年起未来 5 年营收 CAGR 逾 50%,将是台积电 HPC 平台成长和整体营收增长的主要驱动力。同时,伴随数据中心基础设施建设需求,云服务提供商的支本开支增加,同时,伴随数据中心基础设施建设需求,云服务提供商的支本开支增加,2024 年的通用服年的通用服务器市场亦将表现回
248、升态势。务器市场亦将表现回升态势。23 年由于 IT 资本开支预算有限,AI 服务器支出的迅速增加导致通用服务器的需求受挤兑暂时下降,但通用服务器的投资仍是发展 AI 设施的必要条件之一。根据 Digitimes 24 年 2 月 1 日和 4 月 18 日报道,传统服务器逐渐回温,24 年传统服务器订单能见度从原本的 4-6 周提高至 8 周,北美云厂商除了持续采购 AI 服务器,也开始对通用型服务器进行新一轮采购,加速英特尔Eagle Stream及AMD Genoa等采用DDR5的新平台布局,其中谷歌和微软更新力度较强。值得一提的是,随着数据中心及值得一提的是,随着数据中心及 HPC 领
249、域能耗飙升,低能耗成领域能耗飙升,低能耗成为了服务器的一大关注重点,为了服务器的一大关注重点,众多厂商纷纷加码低能耗产品以求突破。众多厂商纷纷加码低能耗产品以求突破。以 x86 和 ARM 架构为例,除英特尔和 AMD 的 x86架构外,一直深耕移动端、标榜低功耗的 ARM 对于服务器市场也来势汹汹,凭借其低能耗优势开始从移动端逐渐向服务器端蔓延,攻城略地。由于 GPU 可分担部分工作负载,因此对服务器 CPU 来说能耗相对性能或更为重要。ARM 架构原来主要应用于移动端,因此相比 x86 能耗较低,这点不管在 AI 或是数据中心的应用中都较受青睐。在云计算任务和数据模态多元化的趋势下,加上随
250、着 AI 和云计算领域对节能的要求提高,ARM 架构本身的能耗优势越趋凸显。与与 ARM 相仿,相仿,LPDDR5X 也凭借低功耗优势从移动端向服务器也凭借低功耗优势从移动端向服务器 DRAM渗透,渗透,2023 年发布的英伟达 Grace CPU Superchip 即为 ARM+LPDDR5X 产品,搭配 ARM Neoverse V2 和 960GB LPDDR5X,带宽 1TB/s。Digitimes 24 年 4 月 23 日报道三星成功研发带宽 10.7 Gbps 的 LPDDR5X,计划同时面向移动端和 AI 服务器市场,该报道同时援引 Omdia 观点,表示 LPDDR 应用领
251、域有望持续扩大至 HPC 和车载运算等场景。图表图表83:2019-2024 年年全球服务器出货量(单位:百万,全球服务器出货量(单位:百万,%)图表图表84:2022-2027 年年全球服务器全球服务器市场规模(市场规模(单位:十亿美元单位:十亿美元)资料来源:TrendForce、华泰研究 资料来源:IDC、华泰研究 12.512.913.614.213.413.73.50%5.40%4.70%-6%2%-8%-6%-4%-2%0%2%4%6%024689202020224e服务器出货量YoY111 113 125 140 150 160 12
252、16 17 19 21 24 20%4%10%12%8%8%0%5%10%15%20%25%04080222023E2024E2025E2026E2027Ex86服务器厂商收入非x86服务器厂商收入总市场规模YoY 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。46 美光科技美光科技(MU US)图表图表85:四大科技巨头近五年的资本开支(百万美元)四大科技巨头近五年的资本开支(百万美元)资料来源:各公司财报、华泰研究 图表图表86:2022-2028 DRAM 出货量变化(以模组和世代区分)出货量变化(以模组和世代区分)资料来源:Yole Intellig
253、ence、华泰研究 受益于通用服务器换机潮和受益于通用服务器换机潮和 AI 服务器需求上升,我们预期服务器需求上升,我们预期 24 年年 DRAM 产品组合向产品组合向 DDR5和和LPDDR5X转变,带动转变,带动ASP提升。提升。根据Digitimes 24年3月12日报道并结合美光FY24Q2业绩会信息,23 年终端需求放缓以及下游着重去库存,导致 DDR5 在服务器和终端测渗透率爬升不及预期,而伴随新服务器平台推出、AI PC 和 AI 手机陆续问世以及换机潮带动,24 年 DDR5 整体渗透率有望从个位数比重进入两位数。该篇报道指出 DDR5 在 24 年初仍处于供不应求,24Q1
254、约有 3%的供给缺口,伴随存储厂商陆续恢复增产,预期 24Q2 起缺口收敛至 1%,24H2 产能将持续开出,伴随 DDR5 在服务器和终端侧渗透率快速提升,下游需求可望消化新增产能,从而维持 DDR5 ASP 涨势。DDR4 等传统等传统 DRAM 方面,方面,结合台积电 24Q1 和美光 FY24Q2 业绩会信息,DDR4 于 23 年持续进行库存调节,尽管下游库存水平逐渐恢复健康,短期内成熟制程产品(如中低端服务器和消费电子产品)需求增长并不强劲,故美光仍不倾向恢复产能,叠加 HBM 和 DDR5 需求增长产生 DRAM 产能排挤,FY24 美光将对 DDR4 和 DDR3 等传统 DR
255、AM 保持积极的产能控制。根据 Yole Intelligence 24 年 2 月预测,2027 年,DDR5 将占 DRAM 总出货量的 80%以上。2022 年全球内存模组出货量为 5.12 亿条,以 DDR4 为主,DDR5 模组出货量预计将从 2022 年的 0.11 亿条增长至 2028 年的 6.42 亿条,6 年 CAGR 97%。AMD 2022 年年 11 月月发布的发布的 Genoa 和和 Intel 于于 2023 年年 1 月月发布的发布的 Sapphire Rapids 是是首首批支持批支持 DDR5 DIMM 的的服务器服务器 CPU,其,其 DDR5 由美光供货
256、。由美光供货。而根据 Digitimes 23 年 5 月报道,受 IT 资本开支缩减、换机周期和整体内存市场低迷影响,客户换新意愿减弱,该批CPU 采用率不佳。但 24-25 年采用 DDR5 的服务器 CPU 规划仍然强劲,美光有望持续为规划中的新产品供货,并受益于 DDR5 需求。05,00010,00015,00020,0002018Q12018Q22018Q32018Q42019Q12019Q22019Q32019Q42020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2
257、2023Q32023Q4AmazonGoogleMicrosoftFacebook 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。47 美光科技美光科技(MU US)图表图表87:Intel 和和 AMD 采用采用 DDR5 的服务器的服务器 CPU *注:具体参数官方尚未确认 资料来源:AMD 官网、Wccftech、the Register、Hardware Times、Toms Hardware、华泰研究 图表图表88:2023 年英特尔和年英特尔和 ARM 架构服务器架构服务器 CPU 产品参数对比产品参数对比 *注:具体参数官方尚未确认 资料来源:英伟达官网,Amper
258、e 官网,Chips and Cheese 官网,华泰研究 面向面向 AI 的产品布局,的产品布局,GDDR7、LPDDR5X 和和 LPCAMM2 三箭齐发三箭齐发 我们认为,端侧我们认为,端侧 AI 将成为将成为 AI 计算的下一个发展重心。端侧计算的下一个发展重心。端侧 AI 部署是一种将部署是一种将 AI 模型(数模型(数据和计算)和应用均置于个人或移动设备上运行的方式,并在处理器中新增了据和计算)和应用均置于个人或移动设备上运行的方式,并在处理器中新增了 NPU 模块(模块(AI加速器),提供更强大的加速器),提供更强大的 AI 算力。算力。随着生成式 AI 模型的使用量不断增长,云
259、端难以满足隐私需求。端侧 AI 的发展也需软硬件的配合,包括轻量化、小型化的 AI 模型,以及高效、低耗的 AI 芯片。为了助力 AI 在端侧运行,业界已开始压缩训练模型,并采用 FP8、FP4、INT8等的低浮点精度格式,以降低对算力的要求,从而为 AI 训练和推理带来更大自由度,进一步推动 AI 民主化。比如说英特尔正积极推广 SYCL 代码替代 CUDA,以完善其生态系统和增加在高性能训练领域的竞争力,真正使人工智能适用于所有人。相对于传统的 PC 和手机,AI PC 和 AI 手机的差异在于搭载了 AI 芯片并集成了 NPU 模块以支持 AI 计算,如苹果 A17 Pro 的算力已达
260、35 TOPS。目前,全球多家厂商在 AI PC 和 AI手机上已开始全面布局,例如高通的 Snapdragon 8 Gen3 芯片,能在手机上运行百亿参数的生成式 AI 模型。高通于 2023 年 7 月表示,将在终端侧不断提升大模型支持的参数阈值,让更多的云端生成式 AI 应用能向端侧迁移。2023 年 8 月随着 Snapdragon 8 Gen 3 移动平台的推出,高通已支持超过 100 亿参数的大模型在端侧运行。谷歌 Pixel 8 AI 手机可利用AIGC 生成具有每个人最佳表情的混合图像,还能调整视频的颜色、光线、稳定性和颗粒感;英特尔 Lunar Lake 运用其内置 NPU
261、在几秒内就可生成一首 Taylor Swift 风格的歌曲和一张戴着牛仔帽的长颈鹿图片;AMD Ryzen AI 可实现自动取景对焦、眼神矫正、高级背景特效等多种 AI 功能。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。48 美光科技美光科技(MU US)相较于纯云端部署,端侧部署具有多方面优势:相较于纯云端部署,端侧部署具有多方面优势:1)成本降低成本降低:vivo AI全球研究院院长周围于2023年11月在2023 vivo开发者大会表示,云端大模型一次对话需要 0.012-0.015 人民币,若有 2 亿用户,一天使用 10 次,一年开销将达百亿元。而端侧 AI 部署能充
262、分利用 NPU 的计算能力,减少不必要的网络传输和云端计算,从而降低资源和能源消耗。2)延时降低:延时降低:能有效减少网络传输的数据量和延时,提高实时性要求高的应用(如视频会议、在线游戏、自动驾驶)的用户体验和服务质量。3)隐私提高:隐私提高:通过在本地进行处理和存储,避免将数据上传到云端,从而提高用户数据隐私和安全,减少泄露、窃取、篡改等风险。4)定制化部署能力强:定制化部署能力强:端侧 AI 能根据不同移动设备的规格和配置进行适配和优化,提高AI 应用的定制化部署能力。移动端通过轻量化、小型化的模型、以及高效、低耗的 AI芯片等技术,实现定制化部署。美光美光面向面向 AI PC 和和 AI
263、 手机的产品布局:手机的产品布局:GDDR7、LPDDR5X 和和 LPCAMMA2 美光于美光于 22 年正式量产年正式量产 16Gb GDDR6X,并将于并将于 24H2 发布发布 GDDR7。16Gb GDDR6X 搭载于英伟达 GeForce RTX 3090 Ti 和 40 系显卡,其性能相较之前 8Gb 版本提升了 15%,是当时领先的独显显存解决方案。GDDR6X提供最高24 Gbps带宽,以2通道(每通道16 bit)为计,可以为显卡提供最高 96GB/s 的带宽,在需要重复存取复杂图像纹理的次世代游戏场景和图像处理工作场景中表现优异。根据 JEDEC 24 年 3 月 5 日
264、发布的第一代 GDDR7 标准,其对比 GDDR6X 进一步提升内存密度和带宽,可提供 16-24Gb 的内存容量和 32 Gbps的带宽,以 2 通道(每通道 16 bit)为计,可以为显卡提供最高 128GB/s 的带宽,显卡性能表现相较前代提升60%。美光预期2026年推出GDDR7的大容量版本,带宽达36 Gbps,容量超过 24Gb。根据 PC Gamer 23 年 11 月和 Toms Hardware 24 年 3 月的报道,GDDR7 将在英伟达下一代 Blackwell 架构显卡以及 AMD RDNA 4 GPU 上得到应用,其中,英伟达的下一代GeForce RTX 50系
265、列有望使用美光的GDDR7,搭载384位内存接口,总带宽高达1.5TB/s,相较上一代采用 24GB GDDR6X 的 RTX 4090 提升约 50%。图表图表89:GDDR6X 在英伟达在英伟达 40 系显卡中系显卡中的的应用应用 RTX 4090 RTX 4080 Super RTX 4080 RTX 4070 Ti Super RTX 4070 Ti RTX 4070 Super RTX 4070 ROP 176 112 112 112 80 80 64 Cuda Cores 16384 10240 9728 8448 7680 7168 5888 RT Cores 128(3rd G
266、en)80(3rd Gen)76(3rd Gen)66(3rd Gen)60(3rd Gen)56 46 L2 Cache 73728KB 64MB 64MB 48MB 48MB 48MB 36MB Memory speed 21Gbps 23Gbps 22.4Gbps 21Gbps 21Gbps 21Gbps 21Gbps TGP 450W 320W 320W 285W 285W 220W 200W Boost Freq 2.52GHz 2.55GHz 2.5GHz 2.61GHz 2.61GHz 2.475GHz 2.475GHz Memory bus 384-bit 256-bit 25
267、6-bit 256-bit 192-bit 192-bit 192-bit Tensor Cores 512(4th Gen)320(4th Gen)304(4th Gen)264(4th Gen)240(4th Gen)224 184 Memory 24GB GDDR6X 16GB GDDR6X 16GB GDDR6X 16GB GDDR6X 12GB GDDR6X 12GB GDDR6X 12GB GDDR6X Price(USD)$1,599$999$1,199$799$799$599$599 资料来源:英伟达官网、华泰研究 21-23 年美光年美光 LPDDR5X 经历三次迭代,分别提
268、供经历三次迭代,分别提供 7.5 Gbps、8.5 Gbps 和和 9.6 Gbps 的传的传输速率。输速率。美光第三代 LPDDR5X 率先采用 1-制程,容量可选 16-128 Gb,相较前代 1-制程产品,1-制程实现峰值带宽提升 12%,功耗降低 4%。根据美光 4 月公布的数据和客户调查,4%的功耗降低可以帮助 iPhone 15 pro 续航延长 1 个小时,而 71%的手机用户认为电池续航是购买手机时的首要考量(对比 61%选择手机寿命,48%选择拍照功能)。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。49 美光科技美光科技(MU US)复盘三代 LPDDR5X
269、历程:21 年 11 月美光 1-制程的第一代 LPDDR5X 通过联发科验证,搭载于联发科天玑 9000 芯片;22 年 12 月美光第二代 LPDDR5X 通过高通骁龙 8 Gen 2验证,并随后搭载于小米13系列智能手机;23年10月美光宣布,公司已为高通的骁龙8 Gen 3 平台提供拥有 9.6 Gbps 传输速率的 LPDDR5X 样品,支持端侧 AI 应用;24 年 3 月美光宣布 LPDDR5X 搭载于三星 Galaxy S24 系列,与美光 UFS4.0 大容量 NAND Flash 一同赋能 S24 的端侧 AI 功能。图表图表90:美光美光 GDDR6X 与前几代主要性能对
270、比与前几代主要性能对比 图表图表91:美光美光 LPDDR5X 资料来源:美光官网、华泰研究 资料来源:美光官网、华泰研究 图表图表92:美光第三代美光第三代 LPDDR5X 率先采用率先采用 1-制程,制程领先海力士和三星同代产品(截至制程,制程领先海力士和三星同代产品(截至 24 年年 4 月)月)资料来源:美光官网、华泰研究 图表图表93:LPDDR 在传输速率和应用场景有明显代差在传输速率和应用场景有明显代差,逐渐适配,逐渐适配 AI 场景场景 资料来源:美光官网、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。50 美光科技美光科技(MU US)LPCAMM 是
271、一种可拆卸内存模组,可有效克服是一种可拆卸内存模组,可有效克服 LPDDR 和和 So-DIMM(small outline dual in-line memory module 小型双内嵌式内存模组)小型双内嵌式内存模组)的缺陷。的缺陷。个人 PC 和笔记本电脑通常采用传统的 LPDDR 或基于 DDR 的 So-DIMM 模组。但是,由于结构上的限制,LPDDR 需直接安装在设备的主板上,这使得在维修或进行升级时难以替换。与此相反,So-DIMM 虽然在安装或拆卸上更为便捷,但在性能、功耗以及其他物理属性方面仍有许多限制。随着行业对更高效、更小巧设备的需求日益增长,LPCAMM 作为搭载
272、LPDDR 的模组,其兼具LPDDR 的能效表现和 So-DIMM 的易修性,同时其封装尺寸更小,在制造过程中为 PC ODM/OEM 提供了更大的灵活性。据韩媒 ZDNet Korea 24 年 1 月消息,LPCAMM 或将是26 多年来首度取代 So-DIMM 的产品,相较 So-DIMM,其低能耗和小型封装尺寸可以使得笔记本设计更加轻薄。图表图表94:LPCAMM 模组相较于模组相较于 SODIMM 减少设备内部空间占用减少设备内部空间占用 资料来源:三星官网、华泰研究 美光于美光于CES 24上展示基于上展示基于其其LPDDR5X的的LPCAMM2内存模组,解决内存模组,解决AI P
273、C的内存问题。的内存问题。根据 Digitimes 24 年 2 月 1 日报道和美光官网 1 月数据,AI PC 所需 DRAM 容量是普通 PC的两倍以上,以 Llama2-70B(INT4)模型为例,其在端侧载和推理需要大约 42GB 的内存,输出速度为 1.4 token/秒,这是一般个人 PC 无法提供的内存规格。美光于 CES 上展示的 LPCAMM2 模块将 LPDDR5X DRAM 整合进 LPCAMM2 规格尺寸,容量从 16GB 到64GB 不等,传输速率最高可达 9.6 Gbps,远高于 DDR5 SODIMM 的 6.4Gbps,能为 PC提供更高的能效表现并节约更多的
274、空间。根据美光产品官网,在网页浏览和视频会议等PCMark 10 基本工作负载中,LPCAMM2 相较 DDR5 SODIMM 将功耗降低 61%,效能提高 71%,空间节省 64%。目前美光 LPCAMM2 内存模块已经出样并按计划在 24H1 投产,24年5月7日美光宣布其基于LPDDR5X的LPCAMM2将搭载于联想ThinkPad P1 Gen7,与传统 DDR5 SODIMM 相比待机功耗降低 80%。图表图表95:伴随伴随 AI 模型复杂度提高,模型复杂度提高,AI PC 的内存的内存/带宽需求提升带宽需求提升 图表图表96:PCMark 10 跑分对比跑分对比-美光美光 LPCA
275、MM2 和和 So-DIMM 资料来源:美光官网、华泰研究 资料来源:美光官网、华泰研究 9,156 8,248 6,647 9,820 9,526 11,373 02,0004,0006,0008,00010,00012,000Digital contentProductivityEssentialsDDR5(So-DIMM)LPDDR5X(LPCAMM2)免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。51 美光科技美光科技(MU US)1-制程领先制程领先竞争竞争对手,投资美对手,投资美日台日台重重点布点布局局 对于存储芯片,制程工艺的迭代是缩减晶体管尺寸,带来单位面积上实现
276、更小、更紧密的晶体管布局,提升内存密度,实现更高性能的同时达到更好的功耗表现。Trendforce 24 年3 月报告指出,DRAM 供应端大幅转进至先进制程生产 DDR5 将带来成本优化,使得供应端利润明显改善。美光美光广泛在广泛在 DRAM 中应用中应用 1-制程制程带来产品更好的能耗表现,有望在下带来产品更好的能耗表现,有望在下游端侧高端产品补库和迭代时带来更高竞争力,游端侧高端产品补库和迭代时带来更高竞争力,同时进一步优化利润率,并惠及基于同时进一步优化利润率,并惠及基于 DRAM的的 HBM 产品产品。美光自美光自 2021 和和 2022 年分别率先量产年分别率先量产 1-和和 1
277、-制程制程 DRAM,取得制程领先,历经三年,取得制程领先,历经三年,DRAM 产能已基本完成转换。产能已基本完成转换。美光于 2020 年公布 1-制程节点(第四代 10nm 级),并于2021 年 1 月开始量产,带来当年 DRAM 领域营收的大规模扩张。公司于 2022 年率先推出1-制程(第五代 10nm 级),相较 1-,该节点可实现约 15%的能效提升和 35%以上的内存密度提升。根据美光 FY24Q2 业绩会和 Digitimes 24 年 4 月复盘三大厂商 DRAM 工艺进程,美光 22 年 11 月开始量产 1-DRAM,目前已有 3/4 的 DRAM 颗粒在 1-和 1-
278、节点上生产,而三星和海力士均于 23Q2 跟进 1-节点,目前产能仍在爬坡。与三星和海力士分别在 1-z 和 1-节点开始导入 EUV 以提升电路密度不同,美光 1-和 1-仍使用DUV,但在光刻过程中通过多重图案化(Multi-patterning)实现绘制电路密度提升,相较导入 EUV 无需完全改变原先生产方式,迭代初期良率更加稳定,因此先进节点产能爬坡较三星和海力士更快。美光制程工艺技术节点持续精进,美光制程工艺技术节点持续精进,25 年量产年量产 1-制程的制程的 DRAM。根据台湾经济日报 23 年9 月报道,美光将领先竞争对手率先转向 1-制程,成为第一家采用“1-”工艺生产 DR
279、AM的半导体公司,并将在 1-制程中导入 EUV,报道中台湾美光 CEO 卢东晖表示鉴于美光当前仅台中厂有 EUV 产线,下一代 1-DRAM 将于 25H1 先行在台中厂量产,同时,1-之后的 1-等未来几代制程仍会继续采用 EUV,美光日本 DRAM 厂未来也将导入 EUV设备。根据美光 FY24Q2 业绩会,1-制程已开始在台中试产。图表图表97:美光制程节点精进路线图及对应美光制程节点精进路线图及对应 DRAM 产品,产品,下一代下一代 1-制程的存储制程的存储芯片芯片预期预期 2025 年年 H1 开始量产开始量产 资料来源:TechInsights、华泰研究 台日承接美光台日承接美
280、光 DRAM 重要产能,重要产能,两地扩产同时美光加码美国工厂投资。两地扩产同时美光加码美国工厂投资。根据台湾经济日报23年9月对台湾美光CEO卢东晖的专访,台中厂和日本广岛厂承担美光DRAM重要产能,公司约有 65%的 DRAM 在台湾生产,同时台日两地团队合作研发 1-制程,通过台日两地的扩产将带来更多现金流支持美光未来的全球布局。Nikkei 2023 年 5 月报道美光计划未来向广岛 DRAM 工厂投资 5000 亿日元,并借助日本政府的政策支援(包括 1920 亿日元的补贴)向广岛厂引进 EUV,计划 26 年将广岛 EUV 产线投产。22 年 7 月,美国参议院以 64 票对 33
281、 票的正式通过了芯片与科学法案立法,该法案授权美国政府向美国芯片制造商提供约 520 亿美元的赠款和其他激励措施。响应芯片与科学法案的美国芯片制造回流,美光着手扩建爱达荷州工厂并兴建纽约州工厂,分别计划未来 10 年投资 150 亿美元和未来 20 年投资 1000 亿美元。根据 Digitimes 24 年 4 月 26 日报道,美光受益于 芯片与科学法案,获 61.4 亿美元直接补贴,以及 75 亿美元借贷额度。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。52 美光科技美光科技(MU US)1.我们认为,短期内我们认为,短期内中国中国台湾台湾将仍然是美光投资的重心:将仍然是
282、美光投资的重心:1)未来数年美光研发计划紧密,伴随存储芯片工艺日趋复杂,产业链上下游合作重要性凸显。1-HBM3E 量产、1-制程量产和 HBM4 研发均有望受益于中国台湾半导体产业群聚效应;2)相较中国台湾,美国半导体产业链地理位置布局更加分散,工厂和供应链多分置两地,而鉴于半导体生产中化学材料的时效性和原料对空运的限制,“地方太大”带来的运输和协作问题短期内难以解决。图表图表98:美国美国芯片芯片与科学法案与科学法案补助款项(亿美元)补助款项(亿美元)资料来源:Digitimes、华泰研究 图表图表99:美光美美光美日台日台三地三地 DRAM 投资计划投资计划 国家国家 地区地区 投资计划
283、投资计划 美国美国 爱达荷州博伊西总部 预计 10 年内投资 150 亿美元,工厂于 23 年 10 月 5 日正式动工,无尘室将于 25 年开始分阶段完工投产 纽约州 未来 20 年投资 1000 亿美元建造巨型工厂,第一阶段投资 200 亿美元 日本日本 广岛 23 年 1-正式量产,下一阶段将引入 EUV 支持 1-量产;引进 EUV 获日本政府 1920 亿日元补贴 中国中国台湾台湾 台中厂 23 年 1-量产,25H1 1-预计量产 资料来源:台湾经济日报、财讯、华尔街日报、华泰研究 竞争格局:行业高度集中,三足鼎立技术咬合紧密,制程产品各有千秋竞争格局:行业高度集中,三足鼎立技术咬
284、合紧密,制程产品各有千秋 传统传统 DRAM 受受 JEDEC 组织规范,标准化程度较高,相较于组织规范,标准化程度较高,相较于 HBM 等高端产线有着更强的等高端产线有着更强的大宗商品属性,同代产品间差异较小。大宗商品属性,同代产品间差异较小。DRAM 行业高度集中,早在行业高度集中,早在 2014 年已确立三寡头年已确立三寡头格局。格局。2005 年,DRAM 市场的主要参与者为三星电子、SK 海力士、美光、南亚科技、尔必达(Elpida Memory)和英飞凌。奇梦达(Qimonda)于 2006 年 5 月 1 日由英飞凌的内存部门拆分而成。2008 年金融危机后,存储行业进入下行周期
285、,奇梦达于 2009 年 1 月 23日宣布破产清算,必尔达在 2013 年 7 月 31 日被美光收购,自此,DRAM 市场的三足鼎立格局确立。以营收为计,以营收为计,23Q4 三星三星/海力士海力士/美光的美光的 DRAM 市占率分别为市占率分别为 46%/32%/19%,其中:1)三星 23Q4 DRAM 营收 80 亿美元,环比+53%,主要系年底 IT 采购高峰拉动,三星 DRAM产能远大于海力士和美光,得以支持更大的订单量。根据 Digitimes 24 年 3 月报道,三星DRAM 产能约为海力士 1.5-2 倍;2)海力士 23Q4 DRAM 营收 55 亿美元,环比+19%,
286、受益于 HBM3 独供英伟达,海力士 23 年市场份额从 23Q1 的 24%跃升至 23Q4 的 32%;3)美光 FY24Q2 DRAM 营收 42 亿美元,环比+21%,由于 HBM 布局较晚,美光市场份额从23Q1 的 27%回落至 23Q4 的 19%。8566646115351.620.356200708090英特尔台积电三星美光格芯Secure EnclaveProgram微芯BAE System剩余款项补助金额 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。53 美光科技美光科技(MU US)图表图表100:DRAM 市场竞争格局演变市场竞争
287、格局演变 资料来源:Bloomberg Intelligence、TrendForce、华泰研究 图表图表101:三大厂商三大厂商 24 年年 DRAM 产能规划产能规划 三星三星 SK 海力士海力士 美光美光 DRAM 产能计划产能计划 23Q4 DRAM 产能触底后,稼动率预计自 23Q4 的65%-70%,恢复至 24Q1 的 81%,24Q2 回升至89%,预计 24Q3-Q4 稼动率提升至 100%24Q1起将视PC和手机市场ASP和客户需求修复情况,对 DRAM 减产计划进行调整,24H2 稼动率回升至减产前水平 将针对性调升 DDR5 等高端产品产能,但整体维持谨慎,FY24 年
288、底晶圆投入量将相较22 年峰值降低 11-13%。资本支出资本支出 增加半导体设备投资和晶圆投入量,约 27 兆韩元(包括 HBM 和 NAND),集中量产 DDR5,扩大HBM3/3E 比重。24 年资本开支高于年初计划,一方面投资 M15X 建设,另一方面因 HBM 晶圆消耗相较传统 DRAM 更大,叠加 24 年DDR5 等传统 DRAM 受 AI 和换机潮带动需求高增,需要相应投资支持扩产。资本支出 75-80 亿美元,因 HBM 晶圆消耗相较传统 DRAM 更大,24 年圆投入量同比下降。产量预估产量预估 24H2 开始出货量同比增加,24Q3 同比增长 11%,24Q4 同比增长
289、41%,恢复至减产前水平。全年出货量同比增长约 2%。24Q1 业绩会指引 24 年 DRAM 产量同比增长有限。FY24Q2 业绩会指引 DRAM 供给增长将低于需求。行业产量预估行业产量预估 DRAM 供给供给同比同比增增长中两位数,长中两位数,低于需求低于需求增长增长 资料来源:Digitimes、台湾经济日报、首尔经济日报、Omdia、三星官网、海力士官网、美光官网、华泰研究 2023 年年 5 月月 SK 海力士紧随美光跟进海力士紧随美光跟进 1-节点,节点,24 年着重年着重 1-和和 1-节点产能爬坡。节点产能爬坡。根据 Digitimes 23 年 12 月报道,海力士规划 2
290、4 年于利川 M16、M14 工厂扩充 1-和 1-的产能,并将从 1-DRAM 开始着手导入 EUV 制程,计划在 2024 年底将 1-和 1-产量增加到 DRAM 总产量的一半以上。报道同时指出,相较于美光在 HBM3E 和 LPDDR5X 等产品广泛铺开 1-制程,海力士优先将 1-制程应用于 24 年 3 月量产的 HBM3E,预期 1-制程量产初期月产能 1.5 万-2 万片,对比海力士整体 DRAM 月产能逾 40 万片,1-比重仍然较低。Digitimes 24 年 4 月援引韩国业界预期,称 24Q4 海力士 1-DRAM 产能将约占总产能的 11%。受过早导入受过早导入 E
291、UV 拖累丢失拖累丢失 DRAM 制程优势,三星制程优势,三星 24 年同样着眼先进制程产能爬坡。年同样着眼先进制程产能爬坡。根据Digitimes 24 年 4 月复盘三大厂商 DRAM 制程迭代过程,三星 16Q1 率先量产 1x 制程,领先海力士和美光一年,而纵观前三代 10nm 级(1x,1y 和 1z),三星始终保持率先量产。然而,根据 Semianalysis 于 23 年 12 月发表的 ASML Dilemma:High-NA EUV is Worse vs Low-NA EUV Multi-Patterning 和 22 年 4 月发表的 Samsung Electronic
292、s Cultural Issues Are Causing Disasters In Samsung Foundry,LSI,And Even DRAM Memory!,三星自 1z nm 开始引进 EUV(2020 年),由于管理层决策失误,激进地将原有产能大量替换为 EUV,但随之而来的成本和良率问题导致三星无法有效地推广其基于 EUV 的新 DRAM 工艺技术,1z、1-和 1-制程产能爬坡缓慢,2022 年间一度传出三星放弃 1-制程研发。时至今日,32%29%28%31%34%39%43%43%37%41%45%47%45%44%45%44%44%43%46%16%17%22%20%
293、23%22%23%25%27%27%27%26%28%29%27%29%29%28%32%15%10%10%11%13%13%12%12%20%24%20%21%22%23%24%23%23%25%19%6%7%5%4%6%4%4%4%4%3%3%3%2%3%3%3%3%2%2%0%10%20%30%40%50%60%70%80%90%100%20052006200720082009200000222023Q4三星电子SK海力士美光南亚科技华邦电子钰创科技尔必达奇梦达(英飞凌)其他 免责声明和披露以及分析师
294、声明是报告的一部分,请务必一起阅读。54 美光科技美光科技(MU US)尽管业界已先后采用了 EUV 制造 DRAM,但三星在密度和性能竞赛中仍然落后,海力士和美光在密度和成本结构方面均领先于三星。Digitimes 24 年 4 月援引韩国业界观点,鉴于HBM 和 DDR5 对先进制程需求,三星 24 年将将大部分资本支出用于扩产 HBM 和先进制程爬坡,24Q4 三星 1-DRAM 产能将约占总产能的 13%。1-制程成“兵家必争”,制程成“兵家必争”,大规模大规模 EUV 导入或重塑格局。导入或重塑格局。我们前文提到,美光领先竞争对手率先转向 1-制程,将在 1-制程中开始导入 EUV,
295、截至美光 FY24Q2 业绩会,1-制程已开始在台中试产,并将于 25H1 先行在台中厂量产。而海力士和三星同样在 1-节点研发上动作频频:1)海力士:)海力士:根据 Digitimes 24 年 4 月报道,海力士内部 DRAM 技术路线规划 24Q3 开始试产 1-,并随后向英特尔等客户验证产品效能,报道指出效能认证通常持续 1-2 个月,完成之后可着手进行量产;2)三星)三星:根据 Digitimes 24 年 4 月报道,三星在 Memcon 2024 上公布 DRAM 量产路线图,根据计划将在 24 年底跟进 1-节点。报道指出鉴于三星在 EUV 上导入更早,因此产线上估计已使用至少
296、 30 余台 EUV 设备,同时海力士正通过利川厂安装 6-7 台 EUV 设备,将在日后服务于 1-量产。我们认为,我们认为,EUV 导入导入 1-制程对于三家厂商均是风险和机遇并存制程对于三家厂商均是风险和机遇并存,量产时间和产能均值得,量产时间和产能均值得关注关注。三星和海力士导入 EUV 较美光更早,前期积累经验或有助于两家在转向 EUV 生产1-过程中更加顺畅,然而鉴于二者 24 年仍将着重于进行 1-和 1-产能爬坡,1-试产成功后何时推出 1-DRAM 产品并顺利进行产能爬坡值得关注;同时,美光采用 DUV 的1-和 1-制程已经成熟,但 EUV 导入 1-仍是首次,能否攻克工程
297、问题,实现良率和产能爬坡将是其工艺优势维持关键。图表图表102:DRAM 主要玩家的制程和产品路径(主要玩家的制程和产品路径(2022 年年 6 月发布),三大厂商月发布),三大厂商 DRAM 产品迭代咬合紧密产品迭代咬合紧密 资料来源:TechInsights、华泰研究 GDDR 方面,方面,美光美光、三星和海力士均将于、三星和海力士均将于 24H1 发布并量产发布并量产 GDDR7,向英伟达,向英伟达 RTX50 系系显卡供货。显卡供货。GDDR7 使用跟 GDDR6 和 GDDR6X 完全不同的编码,因而需要新的内存控制器和协同 GPU 厂商设计。Toms Hardware 24 年 4
298、 月预测 AMD 和英伟达将于 24 年底或25 年初发布下一代 GPU,考虑到“黑五”和圣诞节为传统购物旺季,英伟达在年底购物季前后发布“RTX 50 系列”显卡的可能性较大。我们认为关于我们认为关于搭载搭载 GDDR7 的显卡的显卡将于将于 24H2有更多有更多进展信息进展信息。三星和海力士均在 GTC 2024 展示 16Gb(2GB)GDDR7,分别提供 32 Gbps和最大40 Gbps带宽。根据Toms Hardware 24年3月25日对三家存储厂商的采访,搭载 GDDR7 的显卡预期将于 24 年底面世,例如英伟达 Blackwell 架构游戏显卡(GB202,免责声明和披露以
299、及分析师声明是报告的一部分,请务必一起阅读。55 美光科技美光科技(MU US)台积电 4nm,512 位显存位宽,32GB VRAM)和 AMD RDNA 4 GPU。该篇采访同时指出,当前量产的 GDDR7 为 16Gb 版本,而 24Gb(3GB)版本预期将于 25 年面世。鉴于 12GB显存已成主流 3A 游戏开启最高性能(如 4K 画质)的最低配置要求,更多显存在 12GB 及以上的显卡面世将成为大势所趋。在低功耗在低功耗 LPDDR 领域,除却美光领域,除却美光 LPDDR5X,海力士和三星也不乏同代产品。,海力士和三星也不乏同代产品。22 年年 11月,海力士将月,海力士将 HK
300、MG(High-k/Metal Gate,High-k 绝缘层绝缘层+金属栅极金属栅极)工艺首次应用于)工艺首次应用于LPDDR5X,并在并在 23 年年 1 月推出月推出 1-LPDDR5T。HKMG 工艺通过引入一层高 k 薄膜替代SiON 栅氧化层,实现晶体管栅氧化层厚度减少同时防止漏电。更薄的栅氧化层支持晶体管进一步微缩,源极和漏极间距离缩短,栅极电压降低,从而节约功耗。通过 HKMG 工艺,海力士 LPDDR5X 和 LPDDR5T 的传输速率分别为 8.5 Gbps 和 9.6 Gbps,分别比上一代提升 33%和 13%。23 年 8 月海力士 24GB LPDDR5X 开始量产
301、,搭载于 23 年 8 月发布的OPPO“一加 Ace2Pro”智能手机上。海力士 LPDDR5T 于 2023 年 10 月通过高通骁龙 8 Gen 3 和联发科天玑 9300 的认证,并在 2023 年 11 月开始向 vivo 供应,配置于其智能手机 X100和 X100 Pro 中。24 年年 4 月月 23 日三星宣布日三星宣布 10.7 Gbps LPDDR5X 研发成功。研发成功。三星于 2019、2020 年分别量产 12/16Gb LPDDR5,2021 年率先研发 14nm LPDDR5X 后,2022 年 10 月,三星宣布其8.5 Gbps LPDRR5X 通过高通骁龙
302、平台验证,根据 Toms Hardware 24 年 1 月报道,该LPDDR5X 将为 Intel Lunar Lake MX 平台供货,搭载于轻薄型笔记本。而该款 10.7 Gbps LPDDR5X 相较前代产品效能与容量分别提高 25%及 30%以上,有望在 AI PC 和 AI 加速器中得到应用。图表图表103:GTC 2024 上三星展出的上三星展出的 GDDR7 参数参数 图表图表104:HKMG 将栅极材料由将栅极材料由多晶硅多晶硅/SiON 转为转为高高 k/金属金属 资料来源:Toms Hardware、华泰研究 资料来源:海力士官网、华泰研究 图表图表105:HKMG 实现
303、晶体管栅氧化层厚度减少,功率降低实现晶体管栅氧化层厚度减少,功率降低 资料来源:SK 海力士公告、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。56 美光科技美光科技(MU US)图表图表106:DRAM 三大厂商三大厂商 SWOT 分析分析 SK 海力士海力士 三星三星 美光美光 优势优势 Strengths 1.相较三星,EUV 导入循序渐进,相较美光 EUV 技术积累更加丰富,1-制程有望 24Q3 取得进展 2.制程优势,DRAM 密度和成本结构领先三星 1.资金雄厚,产能优势坐稳 DRAM 龙头 2.集存储、芯片设计、晶圆代工为一体,10.7 Gbps LPD
304、DR5X 率先研发凸显技术积累 3.EUV 导入经验丰富,1-制程转换有望更平稳 1.1-和 1-制程成熟,覆盖 3/4 DRAM 产能 2.率先转向 1-,工艺有望维持领先 劣势劣势 Weakness 1-节点尚在爬坡,资金限制先进产能扩张或不及三星 1.制程竞争落后,DRAM 密度和成本结构不及海力士和美光 2.1-和 1-爬坡尚在进行时,或影响 1-节点量产节奏 1.产能较三星、海力士更小,HBM 扩产进一步挤占 DRAM 产能 2.EUV 导入经验不及海力士和三星,1-节点转换和良率面临风险 机会机会 Opportunities 1.AI 手机、AI PC 和 AI 服务器等新需求带来
305、以 DDR5、LPDDR5X 和 LPCAMM2 为主导的 DRAM 市场增长新动能 2.新一轮通用服务器布局叠加换机潮,传统设备需求或在 24H2 至 25 年明朗 3.三大厂商各产品线布局完善,AI 需求风口、传统需求回暖机遇两不误 威胁威胁 Threats 1.EUV 导入 1-节点,或影响 DRAM 竞争格局 2.短期增长依赖 AI 驱动,传统设备需求前景仍有不确定性 3.传统 DRAM 高度标准化,抗周期能力较弱,24Q2 起三大厂商逐步扩大投片量,25 年 DRAM 或再现供过于求 资料来源:华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。57 美光科技美光科
306、技(MU US)NAND:服务器服务器 eSSD 和大容量智能手机和大容量智能手机 UFS 引领新增长引领新增长 我们预计美光我们预计美光 NAND 业务业务 FY24/25/26 营收营收为为 69/122/125 亿美元,对应营收同比亿美元,对应营收同比为为64.2%/77.1%/2.4%。22Q4 至 23H1 期间 NAND 行业主要厂商相继减产,产能利用率一度下降至约 50%,但自 23Q3 以来 NAND ASP 逐渐回升,部分主要厂商已释放 24 年产能利用率回升积极信号。疫情以来高基数以及下游 NAND 库存已基本在历史平均水平附近,我们认为 24 年 NAND 复苏有望。根据
307、美光根据美光 FY24Q2 业绩会,公司对于恢复产能声调较为保业绩会,公司对于恢复产能声调较为保守,预期未来数年守,预期未来数年 NAND 位元需求位元需求 CAGR 约为约为 21%-23%,而公司计划 FY24 NAND 供给策略维持低产,着力于进一步优化库存,缩短周转天数,预计 NAND 需求增长将高于供给。展望展望 24 和和 25 年,我们认为年,我们认为 NAND 增长核心在于下游设备需求拉动:增长核心在于下游设备需求拉动:1)用户端用户端 SSD(PC 为主):为主):根据 Digitimes 24 年 3 月报道,23 年 NAND ASP 大幅下降带来大容量 SSD 导入 P
308、C 的“价格甜点”,PCIe 4.0+1TB 成为 PC 市场的主流配置。同时,伴随 24H1 PC OEM/ODM 库存回到正常水平、25 年微软停止支持 Win10,以及 Win12 带动换机潮流,叠加 AI PC 逐渐放量,24H2 将为 PC SSD 带来增量。值得注意的是,Digitimes 24 年 4 月 26 日报道提及,高层 QLC NAND 在 PC 中渗透率不断提高,报道援引微软 AI PC 观点和业界对 QLC NAND 看法,指出 AI PC 搭载 LLM 和图片/影片生成模型,将耗费大量存储容量,同时,由于用户不会立即删除生成的大量图片和视频,带来 AI PC 所需
309、存储空间显著提升,而伴随主流 NAND 厂商 NAND 堆叠层数均超过200 层,为了持续提高密度及降低存储成本,QLC NAND 发展成为趋势,目前 PC OEM 采用 QLC NAND 比重约为 20%-25%,24 年渗透率将随着 PC OEM 加速导入 QLC NAND 而高速增长。2)eSSD(企业级,服务器为主)(企业级,服务器为主):与 DRAM 逻辑类似,AI 服务器对高规格设备硬件需求以及通用服务器换机潮将带动大容量 SSD 需求。根据 Digitimes 24 年 3 月报道,24 年云端服务器采用 PCIe 5.0 SSD 的渗透率将较 23 年翻倍,更多 8TB/16T
310、B 或以上的 SSD 应用需求将增加。同时,鉴于服务器成本控制,Digitimes 24 年 3 月 21 日报道指出,企业级 SSD增速为各 SSD 应用场景中最高,而企业客户对 NAND 需求在于更高密度且成本不变(HDD/SSD 等存储设备约占通用服务器成本的 15%),因此更高层数 NAND 将更受青睐;3)手机)手机 SSD:根据 Digitimes 24 年 3 月报道,24 年高阶手机将进入 512GB 以及 TB 时代,预计全年手机平均容量将超过 200GB。同时,业界预期 24 年 QLC NAND 将导入大容量存储的手机新品,随着影像存储需求增加及 QLC NAND 更低的
311、单位存储成本,iPhone 及部分国产手机品牌(如 Oppo)已进入大容量 1TB 机种采用 QLC NAND 的产品验证阶段,并可能增加存储容量作为营销卖点。我们认为美光以其我们认为美光以其 232 层层 QLC NAND 和和 232 层层 TLC NAND 为核心的产品矩阵将受益于为核心的产品矩阵将受益于上述不同场景需求上述不同场景需求:1)QLC NAND:Digitimtes 24 年 4 月报道指出,美光投入 QLC NAND相较竞争对手更早,而美光 24 年 4 月 26 日官宣率先量产面向客户端和数据中心的 232 层QLC NAND,是继 22 年 7 月率先量产 232 层
312、 TLC NAND 之后的又一次领先,相较三星、海力士和铠侠等竞争对手的 QLC NAND 存储密度提升 28%。基于该 QLC NAND,美光发布 2500 NVMe SSD,同时面向企业存储和 PC 场景,现已经向 PC OEM 厂商出样。2)TLC NAND:公司基于 2022 年 7 月量产的 232 层 TLC NAND,分别于 2023 年 5 月、10 月和 12月推出数据中心 6500 ION NVMe SSD、数据中心 7500 NVMe SSD 和用户端 3500 NVMe SSD。其中,6500 SSD 提供 30TB 容量,打破 QLC 和 TLC 界限,以 QLC 的
313、价格实现 TLC的性能。FY24Q2 美光业绩会透露该款 SSD 营收环比增长逾 50%。同时,AI 手机和大容量机种需求有望带动美光 NAND UFS 3.1(176 层 NAND)/UFS 4.0(232 层 NAND)需求增长。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。58 美光科技美光科技(MU US)伴随下游客户伴随下游客户库存水平正常化,库存水平正常化,美光美光对对 FY24 NAND 和和 SSD 趋势趋势较乐观。较乐观。根据公司 FY24Q1和 FY24Q2 业绩会:1)数据中心)数据中心 eSSD:23 年收入达到历史新高,其中主打低成本高效能的 6500
314、30TB SSD 营收环比+50%,FY24 数据中心 SSD 营收将保持增长;2)PC 和手和手机机:FY24Q2 PC SSD 出货量达到历史新高,其中 QLC 占主流,同时,公司面向移动端的232 层 NAND UFS 3.1/4.0 产品已于 FY24Q1/FY24Q2 送样。图表图表107:美光美光 24 年年 4 月月 26 日官宣日官宣 232 层层 QLC NAND 资料来源:美光官网、华泰研究 NAND ASP 23Q3 见底回升,见底回升,24 年年 ASP 增长趋平稳增长趋平稳 计算机闪存设备 NAND-Flash Memory(简称 NAND)属于非易失性存储器,与 D
315、RAM 等易失性存储器不同,该类存储器在断掉电源后信息仍可保留,用于更长期的信息存储。NAND闪存开发的一个重要目标是降低每 bit 成本并提高存储密度,以便与磁性存储设备(如硬盘驱动器 HDD)竞争。NAND 闪存因其更高的存储密度、较低的存储成本和耐用性,与消费电子关系紧密,常见于 PC SSD、智能手机存储(eMMC 和 UFS)和数据中心存储 eSSD等企业级存储场景。相较相较 DRAM,NAND 存储密度更大,但写入速度较低,读写延迟更高,同时频繁的数据写存储密度更大,但写入速度较低,读写延迟更高,同时频繁的数据写入会降低其使用寿命,因此通常不会作为主要存储技术出现在入会降低其使用寿
316、命,因此通常不会作为主要存储技术出现在 HPC/AI 芯片芯片中中,而是作为,而是作为外部存储器保存运算所需的海量数据外部存储器保存运算所需的海量数据。自 2013 年三星推出商业级 3D NAND 产品以来,通过垂直堆叠存储单元来提升存储密度的 3D NAND 成为主流技术。依每单元存储数据位数不同,常见的 NAND 闪存可分为 SLC(1 位)、MLC(2 位)、TLC(3 位)、QLC(4 位)。随随着每个单元存储的位数增加,存储密度提高,位元成本降低,但读写速度和耐用性会相应着每个单元存储的位数增加,存储密度提高,位元成本降低,但读写速度和耐用性会相应减少。减少。图表图表108:3D
317、NAND 推出以来,密度每年以稳定的速度提高推出以来,密度每年以稳定的速度提高 30%。图表图表109:SLC 向向 QLC 等转变提升每单元存储位数,但牺牲了可靠性等转变提升每单元存储位数,但牺牲了可靠性 资料来源:Semianalysis、华泰研究 资料来源:Semianalysis、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。59 美光科技美光科技(MU US)23 年年半导体半导体供给侧供给侧厂商相继加速减产、去库存,厂商相继加速减产、去库存,以以稳定下游产品定价稳定下游产品定价,23Q3 以来以来 NAND ASP 增势显著增势显著。自 22Q4 起,海力士
318、和美光主动减产,调整库存;三星从 23Q2 加入减产阵营,将其 NAND Flash 减产幅度扩大至总产能的 50%,集中减产 128 层以下的中低端产品。根据 Trendforce 24 年 1 月统计,NAND Flash 合约价自 22Q3 开始下跌,连跌四季后于 23Q3 见底回升,并在此后持续增长,24Q1 合同价环比增长逾 20%。对比 NAND ASP历史趋势,当前价格已趋近 20 年水平,理论上供应商已有获利空间,距离价格高点已不远,因此,若 ASP 仍持续上涨或将对市场需求带来不利影响。例如,彭博统计 24 年 3 月 29 日512 Gb TLC NAND Flash 价格
319、 4.03 美元,距离 20 年 3 月峰值 5.54 美元虽仍有成长空间,但已高于过往 5 年历史均价 3.7 美元。24Q2 价格上涨或仍将持续,有供应商开始逐步扩产,价格上涨或仍将持续,有供应商开始逐步扩产,24H2 持续上涨空间或有限持续上涨空间或有限,预期,预期NAND ASP 趋势渐趋平稳。趋势渐趋平稳。根据 Digitimes 24 年 3 月和 4 月报道,24Q1 终端需求持续增温,手机和 PC 端 NAND 需求领涨,预计 24Q2 需求状况仍会保持,但涨幅将会开始收敛,NAND 市场完全恢复可能在 2025 年。从供应商产能从供应商产能调升调升来看:来看:1)三星)三星:
320、根据韩媒 Theelec 24年3月和Digitimes 24年4月报道,24Q1三星西安NAND工厂产能利用率从23年20-30%调升至 70%,该厂承担三星约 40%的 NAND 产能,而 4 月以来三星 NAND 工厂平均稼动率已接近 90%;2)海力士)海力士:Digitimes 24 年 4 月和公司 24Q1 业绩会指出,海力士将维持整体减产策略,24年各季度稼动率维持50%-60%,针对性增加eSSD产能;3)美光)美光:FY24Q2业绩会指出 24 年将维持低产,90%产能用于 176 层和 232 层等高端 NAND 产品;4)铠侠)铠侠(Kioxia)和西部数据()和西部数
321、据(WDC):):Digitimes 24 年 4 月 18 日报道,迎合 NAND ASP 上涨,24Q1 铠侠(Kioxia)和西部数据(WDC)调升产能 20%,增加出货量以弥补 23 年 NAND亏损,但报道同时援引 Omdia 观点,认为铠侠和西部数据不会进一步增加供应量。伴随市伴随市场需求消化上游新增产能,以及下游市场在场需求消化上游新增产能,以及下游市场在 24H1 陆续补库完成,陆续补库完成,24H2 NAND ASP 增长增长或回到低个位数幅度。或回到低个位数幅度。图表图表110:TLC NAND Flash 近近 5 年价格变化情况(单位:美元)年价格变化情况(单位:美元)
322、资料来源:Bloomberg Intelligence、华泰研究 图表图表111:22 年年底至底至 23 年年半导体厂商半导体厂商 NAND 相继减产,相继减产,24Q1 开始逐步回调产能开始逐步回调产能 公司公司 减产计划减产计划 美光美光 22 年 11 月宣布减产 20%,23 年 3 月宣布 NAND 的投片量减少至 30%,24 年 NAND 整体维持低产,主要产能分配给高阶 NAND 产品(176 层和 232 层)SK 海力士海力士 22 年宣布 23 年资本开支减半,23 年 7 月宣布进一步降低 NAND 产能,24 年维持整体减产策略,各季度稼动率维持 50%-60%,针
323、对性增加 eSSD 产能 三星三星 23Q2 减少 NAND FLASH 产能约 25-30%,23H2 减产幅度进一步扩大,24Q1 西安 NAND 厂产能利用率恢复至 70%,24 年 4 月整体 NAND 稼动率已达 90%铠侠铠侠 22 年 10 月宣布减产 30%NAND 产能,24Q1 调升 NAND 产能 西部数据西部数据 23 年 1 月起宣布减产 30%晶圆投片量,23 年资本开支预计减少 25%,24Q1 调升 NAND 产能 资料来源:各公司公告、Digitimes、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。60 美光科技美光科技(MU US)
324、图表图表112:24Q2 NAND 合约价环比涨幅将收敛至合约价环比涨幅将收敛至 13%-18%NAND 2023Q4 2024Q1 2024Q2 智能手机智能手机:UFS/eMMC 涨价 10-15%涨价 25-30%涨价 10-15%数据中心:企业级数据中心:企业级 SSD 涨价 10-15%涨价 23-28%涨价 20-25%PC:用户端:用户端 SSD 涨价 13-18%涨价 23-28%涨价 10-15%3D NAND 晶圆晶圆:TLC 和和 QLC 涨价 35-40%涨价 23-28%涨价 5-10%总总 NAND 涨价 13-18%涨价 23-28%涨价 13-18%资料来源:T
325、rendforce、华泰研究 HBM 和和 DDR5 之外,之外,AI 将如何惠及将如何惠及 NAND Flash?我们认为,我们认为,NAND 在在 AI 训练和训练和 AI 推理中角色类似,从数推理中角色类似,从数据传据传输路径来看,不同于逻辑输路径来看,不同于逻辑芯芯片片的“计算核心”和内存的“中转站”作用,的“计算核心”和内存的“中转站”作用,NAND 承担的主要角色是存储训练和推理所承担的主要角色是存储训练和推理所需的大量数据,因此要求在于以更低成本实现“更大容量需的大量数据,因此要求在于以更低成本实现“更大容量+更高耐用更高耐用+更快读取速度”。同时,更快读取速度”。同时,与与 D
326、DR5 受益于受益于 AI 换机潮逻辑类似,换机潮逻辑类似,AI 将带动将带动 PC、手机及服务器的需求增加,驱动、手机及服务器的需求增加,驱动 NAND供应商提供更大容量、更高速的产品供应商提供更大容量、更高速的产品。24 年年 3 月月 21 日举办的日举办的 CFMS&Memory 2024 论坛上,针对论坛上,针对 SSD“更快读取速度”,三大“更快读取速度”,三大厂商均有新品推出:厂商均有新品推出:1)三星:)三星:推出 4 通道 UFS 4.0,相较于传统 2 通道 UFS 4.0 有望实现读写速度翻倍(从约 4GB/s 提升至约 8GB/s),以适配 AI 手机本地运行 LLM
327、的数据读取需求,预期 24 年夏天出货工程样品;2)海力士)海力士:宣布 PCIe 5.0 eSSD 23 年完成客户认证,当前准备进入量产和出货阶段,预期 24 年客户数量持续提升;3)美光:美光:透露近期将同样发布 PCIe 5.0 SSD,指出 SSD 升级可有效缩短 AI 训练的系统性延迟,美光 PCIe 5.0 SSD通过加速技术可将部分模型训练时间缩短 50%。图表图表113:加速器举例:加速器举例:eSSD将存储的数将存储的数据传据传输至输至 CPU和和 DRAM 进行“中转”,再经由进行“中转”,再经由PCIe总线至逻辑总线至逻辑芯片芯片 资料来源:Cristian Zambe
328、lli(2022.5):Machine Learning for 3D NAND Flash and Solid State Drives Reliability/Performance Optimization、华泰研究 图表图表114:PCIe 迭代带来传输速率的翻倍提升迭代带来传输速率的翻倍提升 图表图表115:数据中心数据中心 eSSD 的性能关注点:高容量和高耐用性的性能关注点:高容量和高耐用性 资料来源:MSI 官网、华泰研究 资料来源:美光官网、Toms Hardware、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。61 美光科技美光科技(MU US)图
329、表图表116:UFS 迭代带来传输速率的翻倍提升迭代带来传输速率的翻倍提升 资料来源:Kioxia 官网、华泰研究 根据 Digitimes 24 年 3 月援引铠侠观点,与从与从 DRAM 衍生的衍生的 HBM 不同,不同,Gen AI 并不直接并不直接对对 NAND 有设计上的特殊要求,而是有设计上的特殊要求,而是 AI 将带动将带动 PC、手机及服务器的需求增加,驱动、手机及服务器的需求增加,驱动 NAND供应商提供更大容量、更高速的产品,并以更低的成本满足客户需求。供应商提供更大容量、更高速的产品,并以更低的成本满足客户需求。AI 服务器场景下,DRAM 与 SSD 同步搭配方能实现系
330、统层面的低延迟,因此 Gen AI 浪潮将同样带来 SSD 领域的投资意愿提升。23 年年 NAND 和和 SSD 价格下跌使得其与传统价格下跌使得其与传统 HDD(Hard Disk Drive 机机械硬盘)价差缩小,有助于市场从械硬盘)价差缩小,有助于市场从 HDD 转移至转移至 SSD,尤其是低成本、高容量的,尤其是低成本、高容量的 QLC SSD需求迅速增长。需求迅速增长。对比 HDD 和 SSD,鉴于 HDD 读写延迟较 SSD 均更高,服务器“换芯不换存”相当于浪费逻辑芯片和 DRAM 性能,而 SSD 有助减少逻辑芯片和 DRAM 的性能浪费。围绕围绕 232 层层 NAND,美
331、光瞄准,美光瞄准 AI PC、数据中心、数据中心和和大容量智能手机大容量智能手机 NAND 堆叠层数的提升带来更高的存储密度,同时亦提升了工艺难度,各大厂商技术进度堆叠层数的提升带来更高的存储密度,同时亦提升了工艺难度,各大厂商技术进度咬合紧密。咬合紧密。根据 Digitimes 24 年 1 月和 4 月报道,2023 年至今推出的 3D NAND 层数均为218 层及以上,2023 年 3 月铠侠(Kioxia)和西部数据(WD)推出 218 层 TLC/QLC NAND;5 月,美光打造 232 层 6500 ION SSD 突破 TLC 和 QLC 限制,以 QLC 成本实现 TLC
332、效能;8 月,海力士推出 321 层 NAND;10 月,美光发布数据中心 232 层 7500 SSD;12 月,美光发布用户端 232 层 3500 SSD;24 年 2 月三星发布 280 层 QLC NAND 但尚未量产;24 年 4 月美光量产 232 层 QLC NAND 图表图表117:主流主流 NAND 厂商厂商 2023 年至今技术进展年至今技术进展 资料来源:美光官网、SK 海力士官网、三星官网、Toms Hardware、TechPowerUp、ISSCC、华泰研究 TLC 和和 QLC 是当前面向数据中心高端是当前面向数据中心高端 SSD 市场的主流方案市场的主流方案,
333、TLC 和和 QLC 之间的取舍尚之间的取舍尚有争议,但共同目的在于提高存储密度同时降低每有争议,但共同目的在于提高存储密度同时降低每 Gb 成本,兼顾提升读写性能,伴随技成本,兼顾提升读写性能,伴随技术迭代,术迭代,TLC 和和 QLC 壁垒逐渐模糊壁垒逐渐模糊。根据美光管理层 Alvaro Toledo 23 年 5 月在 6500 ION SSD 发布时指出,美光认为数据中心服务器使用程度密集、读写频繁,硬盘损耗大,因此强调 TLC NAND 在数据中心场景下的优势,而美光通过 2022 年 7 月 232 层 TLC NAND和 2024 年 4 月 232 层 QLC NAND 技术节点量产,以 QLC 成本实现 TLC 效能。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。62 美光科技美光科技(MU US)美光于美光于 2022 年年 7 月月率先率先推出了全球首