上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

计算机行业深度报告:AI浪潮之下液冷投资机会全梳理-240407(30页).pdf

编号:159263  PDF  DOCX  30页 1.71MB 下载积分:VIP专享
下载报告请您先登录!

计算机行业深度报告:AI浪潮之下液冷投资机会全梳理-240407(30页).pdf

1、行 业 研 究2024.04.07 1 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款计 算 机 行 业 深 度 报 告AI 浪潮之下,液冷投资机会全梳理 分析师 张初晨 登记编号:S01 行 业 评 级:推 荐行 业 信 息上市公司总家数 397 总股本(亿股)3,607.43 销售收入(亿元)17,920.18 利润总额(亿元)314.80 行业平均 PE 90.47 平均股价(元)21.40 行 业 相 对 指 数 表 现数据来源:wind 方正证券研究所 相 关 研 究AI 浪潮:海外日新月异,国内奋力追赶2024.02.19 海外 AI 应用发展行至

2、何处?2024.02.06 华为鸿蒙:终端应用繁荣奇点将至,兼顾行业与个股弹性2023.12.14 AI 大时代:算力为基,应用加速2023.10.30 AIAI 芯片功耗、芯片功耗、PUEPUE 政策、政策、TCOTCO 曲线下降驱动液冷成为智算中心标配。曲线下降驱动液冷成为智算中心标配。(1 1)芯片:芯片:主流 AI 芯片功耗持续提升,英伟达最新 B100 功耗或将超过 1000W。液冷在降低功耗、释放性能、减少故障等优势显著,英伟达、华为等积极推动液冷方案。(2 2)政策政策:政策严控 PUE。目前数据中心实际运行 PUE 为 1.57,距离政策标准 1.30 仍有提升空间,液冷部署是

3、降低 PUE 重要手段。(3 3)TCOTCO:液冷成本处于快速下降阶段液冷成本处于快速下降阶段,给定条件下,液冷可部署更多 IT 设备或降低功耗成本,且液冷增加了服务器使用寿命,在数据中心机柜高密部署趋势下,TCO 优势显著。20272027 年液冷数据中心市场规模预计达年液冷数据中心市场规模预计达 10201020 亿亿,行业五年行业五年 CGARCGAR 达达 59%59%,产,产业链投资机会梳理:(业链投资机会梳理:(1 1)液冷基础设施(零部件及原材料)液冷基础设施(零部件及原材料):全球市场参与者众多,包括中国台湾散热大厂、关键原材料巨头、由热管理行业切入液冷的公司。据科智咨询数据

4、,国内液冷基础设施市场规模预计将从 2022 年20.2 亿元增长到 2027 年 187.2 亿元,复合增速 56.1%,头部厂商是曙光数创、3M、英维克等。(2 2)液冷服务器:)液冷服务器:服务器厂商核心竞争力在客户资源以及解决方案、运维能力等。IDC 预计,液冷服务器市场规模将从 2022 年10.1 亿美元增长到 2027 年 89.0 亿美元,复合增速 54.7%。国内头部企业浪潮、超聚变、宁畅 2022 年份额分别为 34%、32%和 4%。(3 3)液冷机房)液冷机房/机机柜:柜:第三方 IDC 厂商对数据中心机房机柜建设和整体运维有深刻理解,客户资源积累丰富,自建或合作共建液

5、冷数据中心,如润泽科技、秦淮数据等。(4 4)终端客户:)终端客户:2022 年液冷数据中心需求中互联网、政府、运营商,分别占比 32%、27%和 18.5%。运营商采用“技术验证-规模试验-领先标杆”的渐进模式,目标到 2025 年实现 50%以上项目规模化应用。液冷应用放量短期看芯片大厂、液冷应用放量短期看芯片大厂、PUEPUE 政策,中长期规模化应用取决于政策,中长期规模化应用取决于 TCOTCO 下下降曲线。降曲线。根据赛迪顾问数据,2022 年液冷数据中心 1kW 散热成本近 6500 元,同比下降 23.5%,我们假设液冷成本每年下降 20%,预计 2025 年左右基本实现风液同价

6、。给定条件下,当单机柜功率密度在 15kW-30kW,冷板液冷综合性价比最高;单机柜功率密度高于 30kW,浸没式液冷开始出现成本优势。考虑到目前数据中心 4-8kW 功率密度仍占主流,中短期冷板式液冷是最佳散热方案,浸没式液冷随着功率密度的增加,渗透率有望继续提升。此外,现阶段液冷方案以定制为主,零部件的兼容性较差导致后期运维成本较高,统一规范的政策推动亦为重要催化。投资建议:投资建议:(1)上游基础设施(零部件及原材料):曙光数创曙光数创,背靠中科曙光,2023 年 11 月启用全国规模最大的液冷数据中心全链条产业基地,规模占比高达 58.8%;英维克英维克,精密温控龙头,制冷系统服务于运

7、营商、互联网等头部客户的超大型数据中心,推出 Coolinside 全链条液冷解决方案,与超聚变合作落地液冷集群,近期以第一份额中标中国电信弹性 DC 舱集采项目(含液冷层 DC 舱);科创新源科创新源,与国际巨头霍尼韦尔在服务器散热技术、液冷板、浸没式液冷等领域合作,散热模块已实现小批量交付,液冷板正处于产线规划建设阶段。(2)中游(液冷服务器及机柜机房):浪潮信浪潮信息息,All in 液冷,拥有亚洲最大液冷研发生产基地,参与编制多项行业标准,2023H1 液冷服务器份额国内第一,占比接近 50%;润泽科技润泽科技,终端客户字节跳动需求高增,2022 年打造业内首例整栋纯液冷绿色智算中心润

8、泽(廊坊)国际信息港 A-11 智算中心项目。方 正 证 券 研 究 所 证 券 研 究 报 告-48%-38%-28%-18%-8%2%23/4/723/6/19 23/8/31 23/11/12 24/1/2424/4/6计算机沪深300计算机 行业深度报告 2 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 相关标的:相关标的:液冷基础设施提供商:曙光数创、英维克、科创新源、申菱环境、同飞股份、高澜股份等;液冷服务器厂商:浪潮信息、紫光股份、中兴通讯、中科曙光等;液冷 IDC 服务商:润泽科技、科华数据、网宿科技等。风险提示:风险提示:成本改善和标准推进不及预期风险、政策

9、落地不及预期风险、数据中心发展不及预期风险、行业竞争加剧风险。IWkZzWaXnVdW6YlZaXkX7N9R9PpNqQnPsOiNnNsOiNmNpQ8OoPmMMYpMoMNZrNmP计算机 行业深度报告 3 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 正文目录 1 技术、政策、经济效益多重催化,液冷散热迎风口.6 1.1 技术:AIGC 推动智算加速发展,传统风冷难以满足高密度散热需求.6 1.1.1 机架规模增长,智算建设加速.6 1.1.2 单芯片功耗上升,高密部署场景增加.7 1.1.3 风冷达到散热瓶颈,液冷开始占据一席之地.8 1.2 数据中心能耗持续增长

10、,实际运行 PUE 距政策要求仍有较大改善空间.9 1.3 液冷方案是优化经济效益的有效路径.10 2 冷板式液冷仍占主流,浸没式液冷渗透率有望继续提升.11 2.1 液冷方案有冷板、浸没、喷淋三大技术路线.11 2.1.1 冷板式液冷.12 2.1.2 浸没式液冷.13 2.1.3 喷淋式液冷.14 2.2 液冷方案对比.14 2.3 液冷方案主要零部件介绍.15 2.3.1 冷量分配单元.15 2.3.2 冷却液.16 3 液冷市场规模保持高增,市场竞争日趋激烈.16 3.1 液冷成为新建智算中心首选,市场规模保持高增.17 3.2 液冷行业参与者众多,液冷服务器厂商与基础设施厂商竞争与合

11、作并存.19 3.2.1 传统服务器厂商引领液冷 IT 设备发展.19 3.2.2 液冷基础设施市场竞争激烈,曙光数创产品力和应用规模行业领先.19 4 液冷方案成本持续改善,众厂商推动行业标准规范统一.20 4.1 中短期冷板式液冷仍将是液冷主流选择,浸没式液冷长期发展空间大.20 4.1.1 CAPEX:10kW 以内功率密度,风冷 Capex 较浸没式液冷仍具优势.21 4.1.2 OPEX:液冷方案每年可节省更多电费,回收初始投资.22 4.1.3 TCO:随着机柜功率密度的提升,液冷在 TCO 上开始出现优势.22 4.2 液冷生态链厂商推动行业标准化.24 4.3 解耦交付或将成为

12、主流交付方式.24 4.3.1 现阶段液冷数据中心多以一体化采购为主.24 4.3.2 行业标准推进与解耦交付相辅相成.25 5 相关标的.26 5.1 曙光数创.26 5.2 英维克.27 5.3 科创新源.28 5.4 浪潮信息.28 5.5 润泽科技.29 6 风险提示.29 计算机 行业深度报告 4 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表目录 图表 1:2017-2023H1 中国数据中心机柜规模(万架).6 图表 2:中国通用算力规模及预测 EFLOPS(基于 FP64 计算).7 图表 3:中国智能算力规模及预测 EFLOPS(基于 FP16 计算).

13、7 图表 4:Intel 和 NVIDIA 芯片 TDP 功耗变化.7 图表 5:全球数据中心功率密度变化.8 图表 6:金融数据中心单机柜平均功率密度变化对比.8 图表 7:不同功率密度对应的散热方案.8 图表 8:液冷相关政策.9 图表 9:政策对 PUE 要求演变.10 图表 10:2022 年数据中心实际 PUE 与政策要求 PUE 差异.10 图表 11:不同散热方案对应 PUE.10 图表 12:传统风冷数据中心能耗分布.11 图表 13:某液冷数据中心能耗分布.11 图表 14:风冷与液冷工作原理.12 图表 15:冷板式液冷系统原理图.12 图表 16:2U 四节点铝冷板液冷服

14、务器.12 图表 17:铝冷板节点图.12 图表 18:冷板式液冷数据中心效果图.13 图表 19:单相浸没液冷系统原理图.13 图表 20:两相浸没液冷系统原理图.14 图表 21:喷淋式液冷原理图.14 图表 22:三种液冷路线对比.15 图表 23:集中式 CUD 与分布式 CDU.15 图表 24:国内外主流氟化液产品参数对比(单相).16 图表 25:国内外主流氟化液产品参数对比(相变).16 图表 26:液冷产业链.17 图表 27:全球范围内 GPU 带来的和采用液冷的净新增容量.17 图表 28:全球范围内数据中心带来的和采用液冷的净新增容量.17 图表 29:国内液冷数据中心

15、市场规模(亿元).18 图表 30:国内液冷服务器市场规模(十亿美元).18 图表 31:2022-2027 年国内液冷基础设施市场规模(亿元).18 图表 32:2022 年中国液冷数据中心 IT 设备厂商的竞争力.19 图表 33:2023 年上半年中国液冷服务器市场份额.19 图表 34:液冷主要基础设施厂商技术线和产品线情况.20 图表 35:中国液冷数据中心基础设施厂商竞争力.20 图表 36:国内液冷数据中心基础设施厂商规模部署情况.20 图表 37:液冷数据中心基础设施市场部署规模及单 kW 散热成本变化.21 图表 38:风冷和液冷初始投资成本.22 图表 39:液冷同比风冷每

16、年收益(2MW 机房).22 图表 40:风冷和液冷方案 TCO 对比(30kW 功率密度情况).23 图表 41:风冷和液冷 TCO 成本变化.24 图表 42:运营商液冷方案三年愿景.24 图表 43:液冷数据中心业务落地流程示意图.25 图表 44:解耦交付和一体化交付对比.26 图表 45:曙光数创冷板液冷数据中心产品拆解图.27 计算机 行业深度报告 5 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表 46:英维克 Coolinside 全链条液冷解决方案.27 图表 47:浪潮液冷数据中心产品全覆盖.28 计算机 行业深度报告 6 敬 请 关 注 文 后 特

17、别 声 明 与 免 责 条 款s1 技术、政策、经济效益多重催化,液冷散热迎风口 1.1 技术:AIGC 推动智算加速发展,传统风冷难以满足高密度散热需求 1.1.1 机架规模增长,智算建设加速 近年来,随着“东数西算”工程的推进以及“十四五”信息通信行业发展规划的深入,国内加快建设全国一体化算力网络国家枢纽,打造数据中心集群,机架规模快速增长。2023 年 12 月,国家发改委、国家数据局等部门联合印发关于深入实施“东数西算”工程 加快构建全国一体化算力网的实施意见,着眼于通用算力、智能算力、超级算力的一体化布局。2022 年底中国数据中心机架总规模达到 650 万架,近五年复合增速达到 3

18、1.4%;2023 年上半年机架规模已增长到 760万架。图表1:2017-2023H1 中国数据中心机柜规模(万架)资料来源:工业和信息化部,方正证券研究所(注:统计维度 2.5kW 标准机柜数量)智算设施智算设施建设进入新阶段建设进入新阶段,20 年智能算力规模以年智能算力规模以 33.9%33.9%的复合增速增长。的复合增速增长。2022 年 ChatGPT 开启 AIGC 的全新业态,AI 发展进入以多模态和大模型为特色的AI2.0 时代,人工智能的突破带来算力需求的急剧增长,传统 IDC 向 AIDC 智算中心演进。根据 IDC 数据,2022 年中国智

19、能算力规模达 259.9EFLOPS,2023 年将达到 414.1EFLOPS,预计到 2027 年将达到 1117.4 EFLOPS,2022-2027 年复合增长率达 33.9%,同期通用算力规模年复合增长率为 16.6%。050060070080020020202120221H2023计算机 行业深度报告 7 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表2:中国通用算力规模及预测 EFLOPS(基于 FP64 计算)图表3:中国智能算力规模及预测 EFLOPS(基于 FP16

20、 计算)资料来源:IDC,方正证券研究所 资料来源:IDC,方正证券研究所 1.1.2 单芯片功耗上升,高密部署场景增加 计算密集型场景要求芯片具备更高性能,计算密集型场景要求芯片具备更高性能,芯片功耗和热流密度也在持续攀升芯片功耗和热流密度也在持续攀升。近几年,计算密集型应用场景的激增导致承载这些应用负载的服务器设备需要更强性能。叠加多核处理器或者提高单核心的频率去满足高算力负载需求的方式显著增加芯片功耗,主流处理器芯片 CPU 功耗超过 200W,2023 年英特尔第四代至强Sapphire Rapids 功耗已达 300-400W;GPGPU 等异构加速芯片已经突破 700W,英伟达 H

21、100-SXM TDP 相比上代 A100 SXM 提升约 300W。图表4:Intel 和 NVIDIA 芯片 TDP 功耗变化 Intel CPU Skylake Cascade Lake Ice Lake Sapphire Rapids 时间 2017 2019 2021 2023 TDP(W)205 250 270 350 NVIDIA GPU P100 V100 SXM A100 SXM H100 SXM 时间 2016 2017-2019 2020 2022-2023 TDP(W)250 300 400 700 资料来源:CDCC、英伟达官网、芯参数测评,方正证券研究所 芯片芯片算

22、力性能算力性能的提升带来单机柜功率密度的增长的提升带来单机柜功率密度的增长。Uptime Institute 发布的2020全球数据中心调查报告显示,2020 年数据中心平均单机架功率为 8.4kW,相比2017 年 5.6kW、2011 年 2.4kW 有明显提高。以金融行业为例,单机柜平均功率密度在 4-6kW 的比例从 2021 年的 56%下降到 2022 年的 40%,8kW 以上的比例从 10%上升到 15%,数据中心单机柜继续向着高密度方向发展。39.647.754.559.371.886.1101.2117.302040608020 2021 2022 2

23、023 2024 2025 2026 202775155.2259.9414.1497.1616.1812.51117.402004006008001,0001,2002020 2021 2022 2023 2024 2025 2026 2027计算机 行业深度报告 8 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表5:全球数据中心功率密度变化 图表6:金融数据中心单机柜平均功率密度变化对比 资料来源:信通院,方正证券研究所 资料来源:CDCC,方正证券研究所 1.1.3 风冷达到散热瓶颈,液冷开始占据一席之地 区别于传统数据中心 3-10kW 的单机架功耗,目前人工智能

24、推动下的智算中心建设,单机柜密度一般在 20kW 以上,甚至超过 50kw。随着芯片功耗、服务器功耗以及单机柜功率密度的增加,传统风冷难以承接高密度机柜散热需求,易出现局部热点,影响换热性能。从散热效果讲,单机柜密度在 20kW 以下的数据中心仍可采用风冷,超过 20kw 需要采用液冷技术,液冷利用了液体的高导热、高热容特性替代空气作为散热介质,有望成为解决数据中心散热压力的最佳路径。图表7:不同功率密度对应的散热方案 资料来源:中兴通讯液冷技术白皮书,方正证券研究所 温度过高会影响芯片性能的释放以及温度过高会影响芯片性能的释放以及增加增加使用故障,使用故障,液冷将是充分发挥芯片性能液冷将是充

25、分发挥芯片性能的必选项,的必选项,芯片厂商从底层推动液冷芯片厂商从底层推动液冷部署部署。英伟达在 GTC 2024 大会发布 B100 GPU,并推出新产品基于 NVIDIA GB200 NVL72 液冷系统的大型集群。B100 芯片预计功耗超过 1000W,液冷方案或能更好支撑其在满负荷运作时峰值性能的释放。此外,黄仁勋在 2024 SIEPR 经济峰会上透露,下一代 DGX GPU 服务器将由风冷转为液冷散热。2.45.68.402468020功率密度(kW/机架)56%12%10%40%21%15%0.0%10.0%20.0%30.0%40.0%50.0%60.0%

26、4-6kW6-8kW8kW20212022计算机 行业深度报告 9 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 1.2 数据中心能耗持续增长,实际运行 PUE 距政策要求仍有较大改善空间 数据中心能耗数据中心能耗持续增长,持续增长,政策推动数据中心向绿色节能、低政策推动数据中心向绿色节能、低 P PUEUE 方向方向发展。发展。2022年全国数据中心耗电量达到 2700 亿千瓦时,占全社会用电量约 3%。随着国内产业转型升级和数据中心规模的不断扩大,其耗电量会持续攀升,数据中心的节能减排迫在眉睫。在“双碳”目标驱动下,国家层面出台了关于绿色数据中心、新型数据中心发展的指导意

27、见,对 PUE 提出高要求。图表8:液冷相关政策 发文名称 时间 发文机构 重点内容 绿色数据中心政府采购需求标准(试行)2023 年3 月 财政部、生态环境部、工业和信息化部 数据中心相关设备和服务应当优先选用新能源、液冷、分布式供电、模块化机房等高效方案。信息通信行业绿色低碳发展行动计划(2022-2025 年)2022 年8 月 工业和信息化部等七部门 加大先进节能节水技术应用。强化绿色设计,加快自然冷源、近端制冷、液冷等制冷节能技术应用,工业能效提升行动计划 2022 年6 月 工业和信息化部等六部门 推进重点领域能效提升绿色升级。持续开展国家绿色数据中心建设,发布名单及典型案例,加强

28、绿色设计、运维和能源计量审查。引导数据中心扩大绿色能源利用比例,推动老旧数据中心实施系统节能改造。到 2025 年,新建大型、超大型数据中心电能利用效率优于 1.3。深入开展公共机构绿色低碳引领行动促进碳达 峰实施方案 2021 年11 月 国家机关事务管理局等四部门 推动数据中心绿色化。推动存量“老旧”数据中心升级改造,“小散”数据中心腾退、整合,降低“老旧小散”数据中心能源消耗。新建大型、超大型数据中心全部达到绿色数据中心要求,绿色低碳等级达到 4A 以上,电能利用效率(PUE)达到 1.3以下。贯彻落实碳达峰碳中和目标要求推动数据中心和 5G等新型基础设施绿色高质量发展实施方案 2021

29、 年11 月 国家发展改革委、中央网信办、工业和信息化部、国家能源局 到 2025 年,数据中心和 5G 基本形成绿色集约的一体化运行格局。数据中心运行电能利用效率和可再生能源利用率明显提升,全国新建大型、超大型数据中心平均电能利用效率降到 1.3 以下,国家枢纽节点进一步降到 1.25 以下,绿色低碳等级达到 4A级以上。新型数据中心发展三年行动计划(2021-2023年)2021 年7 月 工业和信息化部 到 2023 年底,全国数据中心机架规模年均增速保持在 20%左右,平均利用率力争提升到 60%以上,总算力超过 200EFLOPS,高性能算力占比达到10%。国家枢纽节点算力规模占比超

30、过 70%。新建大型及以上数据中心降低到 1.3 以下,严寒和寒冷地区力争降低到 1.25 以下。全国一体化大数据中心协同创新体系算力枢纽实施方案 2021 年5 月 国家发展改革委 加强绿色集约建设。完善覆盖电能使用效率、算力使用效率、可再生能源利用率等指标在内的数据中心综合节能评价标准体系。关于加强绿色数据中心建设的指导意见 2019 年1 月 工业和信息化部等三部门 建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型。资料来源:绿色节能液冷数据中心白皮书、财政部网站,方正证券研究所 现阶段现阶段数据中心实际运行数据中心实际运行 P PUEUE 距离政策要求仍

31、有较大改善空间。距离政策要求仍有较大改善空间。2021 年,工信部发布的 新型数据中心发展三年行动计划(2021-2023 年)提出,到 2023 年底,新建大型及以上数据中心 PUE 降低到 1.3 以下,东数西算枢纽节点及寒冷地区力计算机 行业深度报告 10 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 争降低到 1.25 以下。北上广深一线城市对于 PUE 限制更为严格。根据科智咨询,全国新建数据中心平均 PUE1.57,距离政策要求的 PUE1.30 仍有差距。新型数据中心建设(特别是智算中心)需要采用更加高效节能的散热方案,液冷可以实现更低的 PUE(1.0-1.2

32、)。图表9:政策对 PUE 要求演变 图表10:2022 年数据中心实际 PUE 与政策要求 PUE 差异 资料来源:CDCC、北京市发改委,方正证券研究所 资料来源:科智咨询,方正证券研究所 图表11:不同散热方案对应 PUE 资料来源:中兴通讯液冷技术白皮书,方正证券研究所 1.3 液冷方案是优化经济效益的有效路径 数据中心建设属于固定资产投资,根据国家发改委固定资产投资项目节能审查办法,年综合能源消费量不满 1000 吨标准煤且年电力消费量不满 500 万千瓦时的固定资产投资项目,可不单独编制节能报告。一般而言,数据中心项目能耗需求会超过该标准,因此节能审查意见是项目开工建设的重要依据,

33、批复的能耗指标(吨煤数量)较为稀缺,如何在有限的能耗指标下,完成更多的算力输出是目前 IDC 项目重点考虑因素。1.01.11.21.31.41.5200222023PUE2017年,国务院印发“十三五”节能减排综合工作方案,要求“新建大型计算数据中心能源利用效率(PUE)值优于1.5”2019年工信部等关于加强绿色数据中心建设的指导意见,提出“新建大型、超大型数据中心的电能使用效率值达到1.4以下”2021年,工信部新型数据中心发展三年行动计划(2021-2023年),提出“新建大型及以上数据中心PUE降低到1.3以下”2022年,上海市关于推进本市数据中心健康有序发展

34、的实施意见,要求“集聚区新建大型数据中心综合PUE降至1.25左右”2023年,北京发改委关于进一步加强数据中心项目节能审查的若干规定,对不同能源消费量的项目PUE分别制定了1.3/1.25/1.2/1.151.31.21.251.31.571.481.561.6611.11.21.31.41.51.61.71.8全国北京上海广东政策要求数据中心PUE现阶段数据中心运行PUE计算机 行业深度报告 11 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 电能利用率(电能利用率(PUEPUE)是数据中心总耗电量与)是数据中心总耗电量与 ITIT 设备耗电量的比值,是衡量数据中设备耗电

35、量的比值,是衡量数据中心总体能耗水平的指标。心总体能耗水平的指标。数据中心能耗主要由 IT 设备、制冷系统、供配电系统、照明及其他能耗。传统数据中心制冷设备能耗居高不下,根据赛迪顾问数据,2019年中国数据中心主要设备能耗占比中,制冷耗电占比高达 43%。而根据全球数据中心调查报告 2022,2014-2022 年平均 PUE 维持在 1.55-1.65,即 IT 设备自身能耗占比约为 61%-65%,以制冷为主的其他能耗占比约为 35%-39%。液冷技术改变了传统的风扇散热方式,取代大部分空调系统(压缩机)、风扇等高能耗设备,以某液冷数据中心为例,液冷设备耗能占比仅为 9%,整体 PUE 降

36、低至 1.2 以下。因此,在同样外电容量条件下,液冷允许配置更多的 IT 设备,可最大化提高能源利用率;而在相同的 IT 设备负载功率下,风冷设备被液冷设备取代,总供电容量需求大幅减少,有效节省供电系统建设投资和运营成本。此外,液冷部署可增加服务器使用时长。根据提尔科技资料,一般风冷服务器使用寿命在 6 年左右,液冷服务器的使用寿命能达到 10 年。因此,从企业自身经济效益考虑,液冷是绿色数据中心散热的最佳方案。图表12:传统风冷数据中心能耗分布 图表13:某液冷数据中心能耗分布 资料来源:绿色节能液冷数据中心白皮书,方正证券研究所 资料来源:绿色节能液冷数据中心白皮书,方正证券研究所 2 冷

37、板式液冷仍占主流,浸没式液冷渗透率有望继续提升 2.1 液冷方案有冷板、浸没、喷淋三大技术路线 目前数据中心制冷方式主要有风冷和液冷,风冷方式起步较早,技术更为成熟。液冷是近几年数据中心对散热需求的提升而催生的新方式,技术还处于发展阶段。液冷技术是指使用液体取代空气作为冷却介质,与发热部件进行热交换,利用液体的温升或相变带走热量的技术。相比传统风冷散热,液冷具有换热效率高、部件级制冷、节能效果优异、支持高密度部署等优势。目前,液冷主要有冷板式、浸没式、喷淋式三大技术路线。IT设备,45%制冷设备,43%供电设备,10%其他设备,2%IT设备,液冷设备,9%供电设备,3%其他设备,1%计算机 行

38、业深度报告 12 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表14:风冷与液冷工作原理 资料来源:绿色节能液冷数据中心白皮书,方正证券研究所 2.1.1 冷板式液冷 冷板式液冷是通过液冷板将发热器件(CPU/GPU/DIMM 等)的热量间接传递给封闭在循环管路中的冷却液体,通过冷却液体将热量带走。IT 设备大部分热量经由冷板和 CDU,再由冷却塔直接带走。冷板式液冷对于服务器芯片组件及附属部件改动较小,主要途径为加装液冷模块,目前已形成相对成熟的解决方案。图表15:冷板式液冷系统原理图 资料来源:中兴通讯液冷技术白皮书,方正证券研究所 图表16:2U 四节点铝冷板液冷服

39、务器 图表17:铝冷板节点图 资料来源:全液冷冷板系统参考设计及验证白皮书,方正证券研究所 资料来源:全液冷冷板系统参考设计及验证白皮书,方正证券研究所 计算机 行业深度报告 13 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表18:冷板式液冷数据中心效果图 资料来源:高澜股份官网,方正证券研究所 2.1.2 浸没式液冷 浸没式液冷分为单相浸没式和两相浸没式。单相浸没液冷系统通过将发热器件直接浸没于冷却介质中来实现散热,热量直接从发热器件传递到液体中进行冷却,并且冷却液始终不发生相变。由于液体具有较高的热传导性能,相比于传统的空气散热,单相浸没液冷系统可以实现更均匀的温度

40、分布,提高设备的散热效果。图表19:单相浸没液冷系统原理图 资料来源:中兴通讯液冷技术白皮书,方正证券研究所 与单相浸没液冷不同,两相浸没液冷系统中的冷却液在散热过程中发生相变,液体汽化吸热带走更多热量。用于两相浸没液冷系统的冷却介质需要兼具物理性质稳定、无腐蚀性和沸点低的特点,通常为碳氢化合物、有机硅化合物。该模式适用于对散热要求更高的高密度数据中心场景。计算机 行业深度报告 14 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表20:两相浸没液冷系统原理图 资料来源:中兴通讯液冷技术白皮书,方正证券研究所 2.1.3 喷淋式液冷 喷淋式液冷面向芯片级器件精准喷淋,通过将

41、液体冷却介质喷淋到热源表面来吸收和带走热量,属于直接接触式液冷,主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质和喷淋式液冷机柜组成。具体来看,在 CDU(冷量分配单元)冷却后的冷却液输送至喷淋机内部,通过机柜内的布液装置依靠泵压或重力驱动,向发热设备自上而下精准喷淋,吸收热量后的热流体进入回液箱,并与外界的冷源进行热交换。图表21:喷淋式液冷原理图 资料来源:中兴通讯液冷技术白皮书,方正证券研究所 2.2 液冷方案对比 冷板式液冷冷板式液冷部署方式与风冷相同,对现有服务器芯片组件及附属部件改动量小,目前成熟度最高、应用最广泛、成本相对较低,从传统风冷散热过渡较为平滑,是当前解决大功耗设

42、备布局、提高能效、降低制冷运行成本的性价比优选方案。然而,冷板式液冷未能实现完全的液体冷却,仍需要风冷设备辅助,节能收益差于浸没式液冷。IDC 数据显示,2022 年中国液冷服务器市场中,冷板服务器占到了90%。喷淋式液冷喷淋式液冷虽然实现了100%的液冷覆盖,但其节能效果不及浸没式液冷,且涉及服务器结构改造,初始投资成本中等,冷却液消耗量中等,喷淋过程中可能存在液体外溢的风险,目前在高密度数据中心场景尚无批量应用。浸没式浸没式液冷液冷在散热效率、空间利用率等方面比冷板式更具优势,但是受限于基础设施改造成本、电子氟化液或其他冷却液的高成本及可维护性等因素,目前应用占比不大。随着机柜功率密度的增

43、长和高功率机柜占比的提升,浸没式液冷或具备更强的刚需属性。计算机 行业深度报告 15 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表22:三种液冷路线对比 冷板式液冷 浸没式液冷 喷淋式液冷 接触形式 冷却液不接触发热体,采用导热板传热 冷却液浸泡发热体 冷却液喷淋发热体 建设成本 主要成本在换热系统和 冷却系统,成本适中 冷却液用量较多,与冷板式相比,成本高 改造机柜增加喷淋等装置,成本中等 服务器改造成本 需要定制冷板,成本高 基本无需改造,成本较低 改动小,成本中等 运维成本 运维成本低 运维成本适中 运维成本适中 冷却液 冷却液用量小,要求低 冷却液使用量大,对冷

44、却液安全性要求高 冷却液用量适中,要求高 可维护性 较简单 复杂 复杂 服务器兼容性 根据服务器定制冷板,兼容所有机器 根据冷却液不同,需进行兼容性测试 根据冷却液不同,需进行兼容性测试 噪音程度 较低 低 较低 PUE 1.1-1.2 单相1.09;相变1.05 小于 1.1 使用场景 无限制 有限制 有一定限制 应用程度 目前应用最广泛 适用于对功率密度、节能性要求较高的大型数据中心 不适合高密度服务器和大规模数据中心,现阶段落地应用相对较少 主流供应商 超聚变、浪潮、联想、曙光数创 曙光数创、阿里巴巴、绿色云图 广东合一 资料来源:科智咨询,方正证券研究所 2.3 液冷方案主要零部件介绍

45、 2.3.1 冷量分配单元 冷量分配单元 CDU 主要由机箱、水泵、板块、阀、膨胀管、管路等组件构成,用于二次侧高温液态冷却介质与一次侧冷源进行换热,并对液冷 IT 设备提供冷量分配和智能管理的模块。根据 CDU 的形态和部署位置,可分为集中式 CDU 和分布式 CDU 两种。集中式 CDU 的单台 CDU 呈机柜形态,与服务器机柜并排部署,可以同时为多个服务器机柜提供制冷能力,具备 N+M 冗余能力。因集中式 CDU 需占用机柜安装空间,更适用于大型数据中心的液冷规模化部署,空间利用率高。分布式 CDU 基本与服务器尺寸同形态,部署在服务器底部,只为所在机柜服务器提供制冷能力,无法提供跨机柜

46、的冗余能力,可靠性较集中式 CDU 低,适用于液冷的中小规模部署。图表23:集中式 CUD 与分布式 CDU 资料来源:冷板液冷服务器设计白皮书,方正证券研究所 计算机 行业深度报告 16 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 2.3.2 冷却液 冷却液是液冷关键原材料之一,具备较高技术壁垒,浸没式液冷的冷却液与服务器、芯片直接接触,具有良好的化学稳定性、热稳定性、绝缘性和电气特性。单相浸没式液冷冷却介质具备较高的沸点,相变浸没式液冷主要依靠物质的潜热传递热量,具备较低的沸点和较高的汽化潜热。以氟化液为代表的碳氟化合物是满足以上条件的最佳材料,冷却液的复配是浸没式液冷

47、核心技术之一。图表24:国内外主流氟化液产品参数对比(单相)图表25:国内外主流氟化液产品参数对比(相变)资料来源:绿色节能液冷数据中心白皮书,方正证券研究所 资料来源:绿色节能液冷数据中心白皮书,方正证券研究所 目前可用于浸没式液冷(特别是相变)的氟化液种类较少,国内市场主要被 3M 等国外企业垄断,产品依赖进口且价格昂贵。以 3M FC-770 冷却液为例,单价 20000元/桶(20kg),约 1000 元/kg。2022 年 12 月 3M 公司宣布将退出 PFAS 生产,并努力在 2025 年底前停止在其产品组合中使用 PFAS(包括电子级氟化液),国内氟化液公司迎来发展机遇。氟化液

48、在配方调试上具有较高门槛,目前国内厂家已实现低沸点电子氟化液的国产自主可控,完成各项参数的长周期测试,并在国内多个大型和超大型液冷数据中心规模化应用,代表厂商有巨化股份、新宙邦等。比如 2020 年国内氟化液化工龙头巨化股份成功开发出高性能数据中心设备专用的巨芯冷却液,填补了国内高性能数据中心专用冷却液的空白,目前已实现批量生产。3 液冷市场规模保持高增,市场竞争日趋激烈 液冷数据中心产业链可分为上游液冷基础设施(零部件及关键原材料)、中游液冷服务器厂商、下游液冷数据中心应用主体。上游液冷上游液冷基础设施(基础设施(零部件及零部件及关键原材料),关键原材料),包括冷却液、CDU、电磁阀、连接器

49、、manifold、TANK 等。冷却液是浸没式液冷关键材料,代表厂商有 3M、巨化股份等,安徽星载、云酷智能等部分液冷基础设施厂商也在尝试自研冷却液;液冷连接器领域以中航光电和英维克为代表;英维克、同飞股份、高澜股份、申菱环境均有布局 CDU 产品。中游是产业链核心环节中游是产业链核心环节,主要为液冷服务器厂商,如浪潮、新华三、宁畅、超聚变、中科曙光等。此外,润泽科技、秦淮数据、科华数据等第三方 IDC 服务商具备一体化交付能力和服务经验,也为下游客户提供液冷集成服务。下游为液冷数据中心终端用户下游为液冷数据中心终端用户,泛互联网行业需求规模最大,占比达到 32%,业务聚焦大量高算力密度应用

50、场景,同时具有技术前瞻和降本增效驱动,未来仍将是液冷服务器主要需求方;泛政府行业占比 27%,主要用于政府主导的超算中计算机 行业深度报告 17 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 心、智算中心以及科研、教育等领域;运营商占比 19%,2017 年运营商已开始在自有数据中心进行液冷试点,目前已在全国开展超过 200 个试点项目,提出到2024 年开展新建项目 10%规模测试,2025 年开展 50%的液冷数据中心部署比例,运营商也将成为市场增长的重要来源。图表26:液冷产业链 资料来源:科智咨询中国液冷数据中心市场深度研究报告,方正证券研究所 3.1 液冷成为新建智

51、算中心首选,市场规模保持高增 随着功率密度的提升,采用液冷方案成为更多新建 GPU 算力中心的选择。根据CDCC 数据,全球范围内采用液冷的新净增容量将从 2023 年 191MW 增长到 2028 年9101MW,复合增速 116.6%,占 GPU 带来的新净增容量比例从 2023 年 3%大幅提升至 43%。占总体数据中心新净增容量份额从 2023 年 1%提升至 31%。图表27:全球范围内 GPU 带来的和采用液冷的净新增容量 图表28:全球范围内数据中心带来的和采用液冷的净新增容量 资料来源:CDCC,方正证券研究所 资料来源:CDCC,方正证券研究所 4459

52、687991013%15%21%28%37%43%0%5%10%15%20%25%30%35%40%45%50%0500000002500020232024E2025E2026E2027E2028E采用液冷的净新增容量(MW)GPU带来的净新增容量(MW)GPU净新增容量中液冷占比4459687991011%7%12%17%24%31%0%5%10%15%20%25%30%35%40%45%50%05000000025000300003500020232024E2025E2026E2027E2028E采用液冷的净新增容量(MW)

53、数据中心净新增容量(MW)数据中心净新增容量中液冷占比计算机 行业深度报告 18 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 液冷市场规模统计可以从液冷数据中心、液冷服务器、液冷基础设施三个维度,其中,液冷基础设施是指以液冷方式为数据中心提供散热的零部件及设备设施,如液冷板、CDU、Manidfold 等。参考科智咨询数据,2022 年液冷数据中心规模达到 100.5 亿元,2019-2022 年复合增速达到 39.7%。其中,2019-2022 年液冷基础设施占液冷数据中心比例稳定在 19%-20%。根据 IDC 数据,2022 年中国服务器市场规模 273.4 亿美元,

54、液冷服务器市场规模10.1 亿美元,渗透率 3.7%;预计 2027 年液冷服务器将达到 89.0 亿美元,2022-2027 复合增速 54.7%。以上文液冷基础设施占比 19%-20%推算,2027 年液冷基础设施规模将达到 22.3 亿美元,约合人民币 160 亿元。图表29:国内液冷数据中心市场规模(亿元)图表30:国内液冷服务器市场规模(十亿美元)资料来源:科智咨询,方正证券研究所 资料来源:IDC,方正证券研究所 新建通用数据中心、智算中心倾向于采用液冷方案,传统数据中心的存量改造也将是液冷市场增长的重要来源。部分老旧及PUE不达标的数据中心机房面临改造、腾退等问题,采取冷板式液冷

55、的机房改造难度小、成本较低,是传统数据中心风冷散热改造的首选方案。科智咨询预测,液冷基础设施市场规模 2023 年将达到32.2 亿元,预计 2023-2027 年复合增速 56.1%,2027 年将达到 187.2 亿元。图表31:2022-2027 年国内液冷基础设施市场规模(亿元)资料来源:科智咨询,方正证券研究所 29.839.955.280.37.19.613.120.219.2%19.4%19.2%20.1%0%5%10%15%20%25%02040608002020212022液冷服务器液冷基础设施液冷基础设施占比20.232.248.475.4121.81

56、87.20204060800023E2024E2025E2026E2027E计算机 行业深度报告 19 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 3.2 液冷行业参与者众多,液冷服务器厂商与基础设施厂商竞争与合作并存 3.2.1 传统服务器厂商引领液冷 IT 设备发展 液冷液冷服务器服务器厂商厂商:现阶段液冷仍处于发展初期,尚未形成成熟的技术规范和标准,且液冷数据中心的核心 IT 设备是服务器,因此用户在液冷服务器的选择上除了关注液冷相关技术能力、项目经验外,仍会重点关注厂商服务器品牌。头部服务器厂商在液冷服务器领域探索较早,依

57、靠服务器业务积累的大量客户资源,在液冷部署上形成了一定的商业化经验。比如,超聚变深耕运营商、政企领域,浪潮在互联网行业客户的占比大。此外,具有机房设计、建设能力的数据中心总包方或 IDC 服务商,对于数据中心技术架构有深刻理解,也会协助终端客户进行液冷系统部署,如润泽科技、秦淮数据等。2022 年国内液冷服务器销售数据中,浪潮、超聚变、宁畅位居前三,市场份额分别为 34%,32%和 4%;2023 年上半年浪潮信息仍位居首位,占比接接近 50%。产品力上,中科曙光、浪潮、超聚变位居领导者象限。图表32:2022 年中国液冷数据中心 IT 设备厂商的竞争力 图表33:2023 年上半年中国液冷服

58、务器市场份额 资料来源:赛迪顾问,方正证券研究所 资料来源:IDC,方正证券研究所 3.2.2 液冷基础设施市场竞争激烈,曙光数创产品力和应用规模行业领先 全球液冷基础设施市场参与者众多,主要包括四类公司:(1 1)中国中国台湾台湾消费消费电子电子厂商厂商,如双鸿、AVC 等。双鸿双鸿是全球第一大笔记型电脑散热模组设计与制造厂,散热模块覆盖服务器、电脑、显卡、主机、手机和车用,2022 年 PC(NB 和 DT)热模块出货量约占全球市场的 25%。2013 年双鸿已将高阶服务器的水冷系统开发纳入研发计划,2021 年与台积电合作 3D 封装芯片液冷散热方案,目前超微制造的基于 NVIDIA G

59、H100 GPU 的 AI 服务器采用的是双鸿散热模组。AVC 则是英伟达 AI 服务器系统 DGX H100 的风冷散热供应商。(2)在氟化液、冷板等关键原在氟化液、冷板等关键原材料领域掌握核心科技材料领域掌握核心科技的的厂商厂商,如 3M、霍尼韦尔等。国内公司在自研核心零部件的同时,也在积极开展与海外厂商的合作,比如,科创新源与霍尼韦尔签署合作备忘录,双方将在服务器虹吸散热技术、液冷板、浸没式液冷技术上开展合作。(3 3)长期专注于液冷技术研究的专业厂商长期专注于液冷技术研究的专业厂商,如 CoolIT、LiquidStack、曙光数创等。CoolCoolITIT 为数据中心和 HPC 提

60、供冷板、CDU、机架歧管、底盘歧管、热交换器以及二次流体网络(SFN)等完整的液冷系统组件和定制服务,是 HPE、戴尔、联想等服务器厂商的冷板式液冷核心合作伙伴。LiquidStack 是浸没式两相液冷解决方案的先驱,2012 年率先在商业运营中成功实施浸没式冷却技术,DataTank计算机 行业深度报告 20 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款s浸没冷却系统已经交付给欧洲多个160MW以上的超大规模采矿点。(4 4)由由热管理热管理、温控温控主业切入液冷主业切入液冷领域的公司领域的公司,如科创新源、英维克、申菱环境等。国内液冷基础设施市场竞争较为激烈,提供液冷零部件如

61、快接头、CDU 等,主要厂商包括曙光数创、英维克、申菱环境、同飞股份等企业,各家厂商技术和产品各有侧重,先进入者在实践中进行调优,积累项目服务经验和客户资源。图表34:液冷主要基础设施厂商技术线和产品线情况 资料来源:科智咨询,方正证券研究所 根据赛迪顾问数据,在产品竞争力和市场份额上,曙光数创均保持领先,2021-2023H1 曙光数创在国内液冷数据中心基础设施部署规模的市场份额达到 58.8%。其他厂商竞争较为胶着,尚未出现明显优势。图表35:中国液冷数据中心基础设施厂商竞争力 图表36:国内液冷数据中心基础设施厂商规模部署情况 资料来源:赛迪顾问,方正证券研究所 资料来源:赛迪顾问,方正

62、证券研究所 4 液冷方案成本持续改善,众厂商推动行业标准规范统一 4.1 中短期冷板式液冷仍将是液冷主流选择,浸没式液冷长期发展空间大 较高的较高的应用成本应用成本是液冷是液冷推广推广的阻力之一。的阻力之一。衡量数据中心成本的指标为 TCO(整体拥有成本),主要包括建设成本(土地成本、硬件设备成本等一次性投入)和运营成本(硬件持续投入、人员管理、供电、维保、折旧、培训等)。虽然目前液冷的成本优势不明显或尚未出现,但是成本端在持续改善,2022 年液冷数据中心 1kW的散热成本近 6500 元,成本同比下滑 23.5%,预计 2023 年 1kW 的散热成本降至220.432.626.924.1

63、18.214.412.89.49.66.558.8%8.7%7.2%6.4%4.9%3.8%3.4%2.5%2.6%1.7%0%10%20%30%40%50%60%70%0500部署规模(MW)份额(右轴)计算机 行业深度报告 21 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 5000 元左右。风冷成本约 3000 元/kW,假设液冷成本每年下降 20%,预计 2025年左右基本实现风液同价。图表37:液冷数据中心基础设施市场部署规模及单 kW 散热成本变化 资料来源:赛迪顾问,方正证券研究所(注:由于液冷数据中心基础设施要匹配数据中心实际情况,不同环

64、境导致相同规模的液冷数据中心投资差别较大,不具备可比性,因此测算采用了功率部署规模作为统一衡量的标准)总体看,虽然液冷在新建数据中心的初始投资上高于风冷,但随着机柜功率密度的提升,具备更优散热效率、更好节能效果的液冷方案每年可节省更多的电费,以此回收初始投资的增加额。此外液冷部署逐步上量,其成本有望继续下降。(1)单机柜功率密度 15kW-30kW,冷板式液冷综合性价比最佳(考虑 TCO 成本和散热能力);(2)单机柜功率密度 30kW 以上,浸没式液冷 TCO 相比传统风冷已经开始有成本优势。2022 年主流单机柜功率密度 4-8kW,占比超过 80%。因此中短期冷板式液冷仍将是主流选择,浸

65、没式液冷随着功率密度的增加,渗透率有望持续提升。4.1.1 CAPEX:10kW 以内功率密度,风冷 Capex 较浸没式液冷仍具优势 施罗德大型数据中心浸没式液冷与风冷投资成本分析表示,给定条件下,对于相同的功率密度 10kW,风冷和浸没式液冷数据中心的每瓦每瓦初始初始投资成本投资成本大致相等。而当机柜功率密度提升至 20kW 和 40kW,液冷初投资降低 10%和 14%,更具成本优势。但因为测算假设中未使用 CDU,CDU 成本大概在 0.1-0.2 美元/瓦,因此粗略估计,在 10kW 以内功率密度下,含有 CDU 的浸没式液冷每瓦初始投资成本仍高于风冷。而随着机柜功率密度的增长,液冷

66、初始成本会逐步改善(相同外电容量下能出产出更多 IT 量,或者相同 IT 产量下所需的基础设施更少,节省更多电费)。31.0 124.1 139.2 111.6 00约500002000400060008000400002040608002020202120222023H1部署规模(兆瓦)1kW散热成本(元)计算机 行业深度报告 22 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表38:风冷和液冷初始投资成本 资料来源:施罗德大型数据中心浸没式液冷与风冷投资成本分析,方正证券研究所 4.1.2 OPEX:液

67、冷方案每年可节省更多电费,回收初始投资 虽然液冷散热会增加初始投资,但具备更优散热效率、更好节能效果的液冷方案每年可以节电的方式降低运营成本。以 2MW 机房规模为例,风冷冷却能耗 1200kW,对应冷却电费 841 万元;浸没式液冷冷却能耗 80kW,对应冷却电费 56 万元。在冷却电费上,浸没式液冷冷板式液冷风冷散热。图表39:液冷同比风冷每年收益(2MW 机房)资料来源:中兴通讯液冷技术白皮书,方正证券研究所 4.1.3 TCO:随着机柜功率密度的提升,液冷在 TCO 上开始出现优势 使用冷板液冷和浸没液冷的核心收益是使用冷板液冷和浸没液冷的核心收益是相同外电容量下的相同外电容量下的 I

68、 IT T 产出量增加,因此产出量增加,因此单单 k kW W 成本随着成本随着 I IT T 产出产出的增加的增加而而逐步减少。逐步减少。如下条件下,不考虑不考虑液冷液冷服务器服务器和普通服务器的和普通服务器的成本成本差异差异,仅比较散热基础设施仅比较散热基础设施成本成本。在高功率密度场景(在高功率密度场景(30k30kW W):(1)比较机电成本,冷板式液冷风冷单相浸没,主要原因在冷板液冷较风冷能出更多IT 量,因此分摊到每kW 的成本下降,而浸没液冷成本主要影响因素在于氟化液价格。(2)比较机电+土建+外电+能评,冷板式液冷风冷单相浸没。值得注意的是,单相浸没每 ITkW 成本与风冷的1

69、2002808084006008000风冷冷板式液冷浸没式液冷冷却能耗/KW冷却电费/万元计算机 行业深度报告 23 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 差距在缩小,风冷、板冷、单相浸没的土建+外电+能评成本分别为 9000 元/ITkW、5000 元/ITkW 和 5500 元/ITkW。一是液冷所需的设施面积更少,土建成本较低;二是政策严控 PUE,同等规格数据中心投资项目,风冷方案和液冷方案在外电引入和能评指标等资源的付出也有所区别。(3)比较 OPEX,相同外电容量,液冷能出更多 IT 量,因此分摊后的每 ITkW

70、 的电费较风冷有显著优势。(4)比较 TCO,冷板总成本最低,单相浸没成本已与风冷接近。综合考虑 TCO 成本和散热效果:单机柜功率密度 15kW-30kW,冷板式液冷综合性价比最佳;单机柜功率密度30kW以上,浸没式液冷 TCO相比传统风冷已经开始有成本优势。图表40:风冷和液冷方案 TCO 对比(30kW 功率密度情况)CAPEX 风冷(元/ITkW)板冷(元/ITkW)单相浸没(元/ITkW)机电(含装修)16000-18000 15000-17000 23000-28000 机电+土建 21000-23000 18000-20000 26500-31500 机电+土建+外电+能评 25

71、000-27000 20000-22000 28500-33500 TCO 分析 风冷(元/ITkW/月)板冷(元/ITkW/月)单相浸没(元/ITkW/月)CAPEX 417-451 358-386 496-581 OPEX 780-810 670-700 650-680 TCO 1197-1261 1028-1086 1146-1261 资料来源:弈信通科技、CDCC,方正证券研究所 注:假设条件如下:1、地区:华东地区 2、暖通:风冷(水冷冷水机组+精密空调)、板冷(冷板液冷+间接蒸发冷却)、浸没(单相浸没液冷+氟化液)3、电气:2N UPS 架构;N+1 柴发 4、机柜:30kW,服务

72、器负载率 80%5、用电:2*20MVA 外电对应体量 IDC 6、不含服务器折旧和服务器运营支出;不含土地成本;IRR=10%;机电折旧 10 年;土建折旧 30 年;12 个月线性上架 根据奕信通测算,基于以上假设,且且不考虑服务器成本不考虑服务器成本,30kW 功率密度下,冷板式液冷在初始投资时已经有成本优势,TCO 成本最优。浸没式液冷初始投资高于风冷,但在第五年 TCO 出现拐点低于风冷系统。计算机 行业深度报告 24 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表41:风冷和液冷 TCO 成本变化 资料来源:弈信通科技、CDCC,方正证券研究所测算 4.2 液

73、冷生态链厂商推动行业标准化 行业标准不统一,规范程度不足。行业标准不统一,规范程度不足。目前业内尚未建立液冷服务器与机柜统一接口规范标准,产业链上各企业技术路径多样,产品规格差异较大,难以兼容。产业产业发展的关键在于发展的关键在于接口的规范、标准的统一接口的规范、标准的统一,目前众多液冷生态链厂商及服务供应商正在积极推动行业标准化。2021 年 12 月,腾讯、华为等参与起草的首批数据中心液冷系列行业标准正式发布,并于 2022 年 4 月 1 日正式实施。2023 年由信通院、中国移动、中国电信、中国联通、超聚变、华为、英特尔等 20 家企业联合编写冷板式液冷整机柜服务器技术要求和测试方法行

74、业标准,进一步解决非标部件带来的安全性、可靠性、强耦合等问题。图表42:运营商液冷方案三年愿景 资料来源:电信运营商液冷技术白皮书,方正证券研究所 4.3 解耦交付或将成为主流交付方式 4.3.1 现阶段液冷数据中心多以一体化采购为主 液冷系统涉及零部件、接口层、基础设施层、系统架构层,需要服务器与零部件之间协同适配。目前业内尚未建立液冷服务器与机柜统一接口规范标准,液冷部署由客户与厂商自定标准进行集成开发。因此,各厂商不仅需要提供定制化零部件,同时还要参与到系统设计、实施、运维的全流程。为了便于各环节定制,现阶段下游客户部署液冷系统多采用一体化采购模式,总包方一般为液冷服务器厂商或 IDC

75、服务商,再由总包方将零部件分包给基础设施厂商。012345678风冷26000355404508054620644092780102320板冷24404566053880624086760浸没39605494062920709007888086860948400200004000060000800000风冷板冷浸没计算机 行业深度报告 25 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表43:液冷数据中心业务落地流程示意图 资料来源:科智咨询中国液冷数据中心市场深

76、度研究报告,方正证券研究所 4.3.2 行业标准推进与解耦交付相辅相成 当前液冷厂商对一体化采购和解耦交付各有考量。对于服务器厂商,其掌握了核心 IT 设备服务器,牵头制定一体化解决方案,更易形成壁垒,厂商内部的供应商产品标准化,缩短了开发和交付周期,但是各厂商之间的产品兼容性较差。对于下游客户来说,一体化交付不易比价,部署成本偏高;且由于服务器与零部件之间的强耦合关系,一体化交付会降低未来液冷部署的灵活性,导致迁移成本增加以及可能丧失议价权。而且后期运维也可能出现分包主体相互推诿,运维效率偏低。因此解耦交付或将替代一体化交付,加速液冷的规模化部署。解耦带来了供应商多元化,能让其充分发挥自身优

77、势,但是目前缺乏较多行业标准的情况下,与供应商的对接比较耗时耗力。没有行业标准的解耦交付,更像是项目制。因此引领解耦交付的关键因素是行业标准统一,液冷部署的扩张除了成本改善外,还需跨越“百标(标准)大战”。计算机 行业深度报告 26 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表44:解耦交付和一体化交付对比 解耦交付 一体化交付 服务器厂商服务器厂商 职责范围职责范围 提供液冷服务器设备,还需明确液冷服务器进回水的温度、压力、水质、监控范围的要求,液冷连接头的要求、配电要求等 提供液冷整机柜及二次侧管路的整体设计解决方案 服务器服务器 多厂家 单厂家 整体适配性整体适配

78、性 根据既定接口及标准分别生产机柜与服务器,测试阶段进行适配 原厂机柜和原厂服务器适配性较好,无法与非原厂设备匹配 整体机房管理整体机房管理 可形成统一标准及规范,后续易管理 各厂家标准不同,不容易对接 安装部署安装部署 批量生产,规模推广,灵活部署。基础设施和服务器厂家需协调合作。机柜供应商提供机柜级的漏液监测功能 与服务器结合部署 采购模式采购模式 机柜与服务器分别采购,促进竞争,有利于降低价格 统一采构,受厂家限制较多 产业成熟度产业成熟度 当前尚不成熟 当前较成熟 服务器服务器/整机柜整机柜交付周期交付周期 盲插快接模式:对现有软管快接厂家,服务器深度定制开发,交付周期约 9 个月 软

79、管快接模式:对服务器逬行浅度定制开发或无需定制,交付周期约 3 个月 主流厂家已有量产的产品 资料来源:电信运营商液冷技术白皮书,方正证券研究所 5 相关标的 液冷基础设施提供商液冷基础设施提供商:曙光数创、英维克、科创新源、申菱环境、同飞股份、高澜股份等;液冷服务器厂商液冷服务器厂商:浪潮信息、紫光股份、中兴通讯、中科曙光等;液冷液冷 IDCIDC 服务商服务商:润泽科技、科华数据、网宿科技等。5.1 曙光数创 公司背靠中科曙光,前身为中科曙光数据中心产品事业部,专注数据中心领域超过 20 年,深耕高效冷却技术,业务涉及浸没相变液冷(22 年收入占比 83%)、冷板式液冷(7%)和模块化数据

80、中心产品(6%),卡位产业链中上游,提供液冷/风冷零部件及整体解决方案(精密空调、CDU、冷却液、冷板散热套件、服务器机柜、监控系统、封闭通道系统等散热全套产品)。公司于 2015 年率先推出国内首款量产的冷板式液冷服务器产品,并于 2017 年在全球范围内首次实现了基于浸没式相变冷却的高密度集群服务器的应用落地,2023 年 11 月启用全国规模最大的液冷数据中心全链条产业基地,公司浸没液冷产品处于世界领先,冷板液冷处于国内领先。根据赛迪顾问数据,2021-2023H1 公司在中国液冷数据中心基础设施市场规模部署占比 58.8%,在 2021Q3-2023H1 字节跳动液冷基础设施供应商中份

81、额高达 56%。计算机 行业深度报告 27 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款 s 图表45:曙光数创冷板液冷数据中心产品拆解图 资料来源:曙光数创招股说明书,方正证券研究所 5.2 英维克 公司是国内领先的精密温控节能解决方案和产品提供商,从机房温控节能切入液冷技术。2022 年 8 月 Intel 与英维克等 20 家合作伙伴联合发布冷板液冷系统设计参考白皮书。2023 年 7 月,公司作为液冷领域的唯一企业,与英特尔签署项目合作备忘录,加快推进液冷解决方案的测试、评估和推广。目前,公司推出针对算力设备和数据中心的 Coolinside 液冷机柜及全链条液冷解决方案

82、,产品涉及冷源、管路连接、CDU 分配、冷板、液冷工质等,“端到端、全链条”的平台化布局是公司在液冷领域的重要竞争优势。配套 Coolinside 解决方案,公司强化液冷售后服务,业内率先推出“液冷架构师责任制”,覆盖液冷数据中心全生命周期各环节,保证客户在 5 年服务期内,无须再投入任何资源,实现“5 年液冷无忧”。公司在机房温控领域客户资源丰富,高效制冷系统、列间空调系统服务于运营商、互联网、国有行、第三方 IDC 服务商等头部客户的超大型数据中心,推出Coolinside 液冷方案并与超聚变联合创新落地 xLAB 液冷集群,近日以第一份额中标中国电信弹性 DC 舱集采项目(含液冷层 DC

83、 舱)。图表46:英维克 Coolinside 全链条液冷解决方案 资料来源:英维克公众号,方正证券研究所 计算机 行业深度报告 28 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款s5.3 科创新源 公司主要业务包括高分子材料及热管理系统业务,其中热管理产品主要为新能源汽车和储能系统用的液冷板、家用电器使用的冷凝器、蒸发器等散热器件。2023年 7 月公司与霍尼韦尔签署合作备忘录,双方将在数据中心服务器虹吸散热技术、板换液冷技术、单相/两相浸没式液冷技术的开发和应用领域积极开展合作。数据中心温控领域是公司重点布局方向:(1)虹吸式特种散热模组,公司与霍尼韦尔联合开展,主要用于满足

84、数据中心服务器的散热需求,已实现向霍尼韦尔小批量产品供应。(2)液冷板:用于满足部分通信设备厂商的数据中心服务器散热需求,23 年底已进入产能规划和产线建设阶段。5.4 浪潮信息 公司是全球服务器龙头,根据 Gartner 和 IDC 数据,公司在 2023Q3 全球服务器市场份额达到 9.1%(全球第二),人工智能服务器份额 2020-2022 年连续三年全球第一。公司于 2021 年建成了亚洲最大的液冷研发生产基地天池并投入使用,基地年产能达 10 万台,实现了业界首次冷板式液冷整机柜的大批量交付。2022 年公司将“All in 液冷”纳入发展战略,通用、高密度、整机柜、AI 服务器等全

85、线产品支持液冷。此外,公司与液冷产业链上下游紧密合作,积极牵头液冷专利与标准建设,截至 2023 年 6 月底,公司拥有 500 多项液冷技术领域核心专利,已参与制定和发布 10 余项冷板式液冷、浸没式液冷相关设计技术标准,牵头立项国内首批冷板式液冷核心部件团体标准。2024 年 1 月,公司与英特尔联合发布全球首个全液冷冷板服务器参考设计。作为国内最早实践液冷部署的服务器厂商之一,公司在打造液冷数据中心全产业链布局的同时,积极推进液冷技术创新,首创液环式真空 CDU、发布全液冷冷板服务器、打造业界首个支持浸没式液冷 50进液温度的服务器。IDC 数据显示,公司在 2023 年上半年位列中国液

86、冷服务器市场占比第一,达到接近 5 成的市场份额。图表47:浪潮液冷数据中心产品全覆盖 资料来源:浪潮服务器公众号,方正证券研究所 计算机 行业深度报告 29 敬 请 关 注 文 后 特 别 声 明 与 免 责 条 款s5.5 润泽科技 作为国内领先的第三方数据中心服务商,公司凭借深厚的客户资源基础建立了较强的先发优势,积累了丰富的液冷智算中心设计、研发、建设和运维经验。2021年初与电信运营商、互联网公司进行液冷智算中心的项目合作,2021 年底相关合作成果正式投产,2022 年底公司打造业内首例整栋纯液冷绿色智算中心润泽(廊坊)国际信息港 A-11,2023 年 7 月 A-11 液冷智算

87、中心陆续交付运营。公司在液冷智算中心领域具有较强的技术优势。2023 年上半年,公司联合电信运营商、头部终端客户研发的“数据中心智能低碳全域制冷系统”模块技术已顺利完成试运行,实现批量交付高功率液冷机柜。6 风险提示(1 1)成本改善和标准推进不及预期风险成本改善和标准推进不及预期风险液冷成本改善和行业标准统一是规模化应用的重要因素。如果液冷部署成本改善不明显,以及行业标准不统一造成不同厂商产品难以兼容,则会影响液冷在数据中心的持续渗透。(2 2)政策落地不及预期风险)政策落地不及预期风险在“双碳”目标驱动下,国家出台关于绿色数据中心、新型数据中心发展的指导意见,对 PUE 提出高要求,北上广

88、深等城市对于 PUE 限制更为严格。现阶段新建数据中心平均 PUE1.57,距离政策要求的 PUE1.30 仍有差距。但如果 PUE 相关政策落地不及预期,或政策要求放宽,则会影响液冷在数据中心的应用。(3 3)数据中心发展不及预期风险)数据中心发展不及预期风险液冷技术依托的主体是数据中心服务器,数据中心建设周期长、流程多,涉及能耗审批,若落地速度不及预期,则会影响液冷服务器和基础设施的采购。(4 4)行业竞争加剧风险行业竞争加剧风险液冷数据中心市场处于发展初期,各项标准化工作仍在持续推进中。随着进入者的增加,可能存在行业竞争加剧的风险。计算机 行业深度报告 30 敬 请 关 注 文 后 特

89、别 声 明 与 免 责 条 款s分析师声明分析师声明 作者具有中国证券业协会授予的证券投资咨询执业资格,保证报告所采用的数据和信息均来自公开合规渠道,分析逻辑基于作者的职业理解,本报告清晰准确地反映了作者的研究观点,力求独立、客观和公正,结论不受任何第三方的授意或影响。研究报告对所涉及的证券或发行人的评价是分析师本人通过财务分析预测、数量化方法、或行业比较分析所得出的结论,但使用以上信息和分析方法存在局限性。特此声明。免责声明免责声明 本研究报告由方正证券制作及在中国(香港和澳门特别行政区、台湾省除外)发布。根据证券期货投资者适当性管理办法,本报告内容仅供我公司适当性评级为 C3 及以上等级的

90、投资者使用,本公司不会因接收人收到本报告而视其为本公司的当然客户。若您并非前述等级的投资者,为保证服务质量、控制风险,请勿订阅本报告中的信息,本资料难以设置访问权限,若给您造成不便,敬请谅解。在任何情况下,本报告的内容不构成对任何人的投资建议,也没有考虑到个别客户特殊的投资目标、财务状况或需求,方正证券不对任何人因使用本报告所载任何内容所引致的任何损失负任何责任,投资者需自行承担风险。本报告版权仅为方正证券所有,本公司对本报告保留一切法律权利。未经本公司事先书面授权,任何机构或个人不得以任何形式复制、转发或公开传播本报告的全部或部分内容,不得将报告内容作为诉讼、仲裁、传媒所引用之证明或依据,不

91、得用于营利或用于未经允许的其它用途。如需引用、刊发或转载本报告,需注明出处且不得进行任何有悖原意的引用、删节和修改。评级评级说明:说明:类别类别 评级评级 说明说明 公司评级 强烈推荐 分析师预测未来12个月内相对同期基准指数有20%以上的涨幅。推荐 分析师预测未来12个月内相对同期基准指数有10%以上的涨幅。中性 分析师预测未来12个月内相对同期基准指数在-10%和10%之间波动。减持 分析师预测未来12个月内相对同期基准指数有10%以上的跌幅。行业评级 推荐 分析师预测未来12个月内行业表现强于同期基准指数。中性 分析师预测未来12个月内行业表现与同期基准指数持平。减持 分析师预测未来12个月内行业表现弱于同期基准指数。基准指数说明 A股市场以沪深300 指数为基准;香港市场以恒生指数为基准,美股市场以标普500指数为基准。方正证券研究所联系方式:方正证券研究所联系方式:北京:西城区展览馆路 48 号新联写字楼 6 层 上海:静安区延平路71号延平大厦2楼 深圳:福田区竹子林紫竹七道光大银行大厦31层 广州:天河区兴盛路12号楼隽峰苑2期3层方正证券 长沙:天心区湘江中路二段36号华远国际中心37层 E-mail:

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(计算机行业深度报告:AI浪潮之下液冷投资机会全梳理-240407(30页).pdf)为本站 (拾起) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
小程序

小程序

客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部