上海品茶

通信行业深度报告:AI热浪起液冷迎来黄金时代-240311(50页).pdf

编号:156543 PDF  RTF  50页 3.26MB 下载积分:VIP专享
下载报告请您先登录!

通信行业深度报告:AI热浪起液冷迎来黄金时代-240311(50页).pdf

1、通信通信 请务必参阅正文后面的信息披露和法律声明 1/50 通信通信 2024 年 03 月 11 日 投资评级:投资评级:看好看好(维持维持)行业走势图行业走势图 数据来源:聚源 新质生产力及 6G 受高度重视,硅光渐行渐近 行业周报-2024.3.10 AI 高密度时代,液冷散热行业拐点渐至行业点评报告-2024.3.4 国内外 AI 加速迭代,看好 AI 算力+高端智造+卫星等板块行业周报-2024.3.3 AI 热浪热浪起,液冷迎起,液冷迎来来黄金时代黄金时代 行业深度报告行业深度报告 蒋颖(分析师)蒋颖(分析师) 证书编号:S0790523120003 AIGC 驱动驱动 IDC 朝

2、高密度化发展,政策严控朝高密度化发展,政策严控 PUE,液冷渗透率有望加速提升,液冷渗透率有望加速提升 AI 带来高算力需求,叠加双碳时代严控带来高算力需求,叠加双碳时代严控 PUE,在数据中心高密度化时代,液冷,在数据中心高密度化时代,液冷优势日益凸显。优势日益凸显。(1)主流计算芯片功耗不断增加。Intel 多款 CPU TDP 已达 350W,NVIDIA 的 H100 SXM TDP 甚至达到 700W,B100 TDP 或将达到 1000W 左右,国产计算芯片 TDP 也在 350W 左右,逼近风冷单点散热极限;(2)出于组网方式和应用的考虑,AI 集群功率密度较高。AI 集群对算力

3、密度有一定要求,训练单元过于分散不利于作业开展,减少组网距离亦可减少通信耗材开支。(3)单机柜功率不断增长,逼近风冷散热极限。NVIDIA DGX A100 服务器单机最大功率约在 6.5KW 左右,在机柜上架率不变的情况下,服务器功率上升导致单机柜功率亦不断增长,逼近风冷 12-15KW 散热极限,继续采用风冷散热将导致行间空调需求数量陡增,高密度散热场景下液冷方案成本和性能优势显著。(4)IDC 耗电量与日俱增,节能减排迫在眉睫。在双碳战略引导下,政策对 PUE 要求趋严,加速推动 IDC 向低碳化演变,液冷是散热技术演变的必经之路,未来有望成为首选。液冷相较风冷优势颇多,运营商助推按下加

4、速键,产业有望蓬勃发展液冷相较风冷优势颇多,运营商助推按下加速键,产业有望蓬勃发展 液冷技术优势显著,运营商助力液冷生态逐步完善。液冷技术优势显著,运营商助力液冷生态逐步完善。虽然风冷技术是目前普遍应用的数据中心散热技术,但其存在散热密度低和散热能力差的缺陷,在散热密度较高的场景如 AI 集群、HPC 集群下尽现颓势。液冷与风冷技术相比,液冷技术主要有:(1)低能耗;(2)高散热;(3)低噪声;(4)低 TCO;(5)空间利用率高;(6)环境要求低,易部署;(7)余热回收易实现等优势。在电信运营商的强推动下,我们认为液冷产业链生态有望快速发展,解决液冷产品标准不统一、CAPEX 较高等行业痛点

5、,液冷普及率或将持续增长。行业行业参与者众多,“技术、客户认证、运维”构成核心竞争壁垒参与者众多,“技术、客户认证、运维”构成核心竞争壁垒 液冷产业可按照服务器内部和外部进行划分,对于服务器内部,液冷系统部署关键是液冷零部件(冷板式:液冷板、管路、QDC 等;浸没式:冷却液等)与服务器的适配,IT 设备商和温控设备商需要进行产品适配及耦合,具有紧密合作关系;对于服务器外部,主要是 Manifold、CDU、冷源等液冷基础配套设施的适配。我们认为液冷行业的竞争壁垒主要体现在“技术、客户认证、运维”等综合能力上。投资建议投资建议 受益标的包括:受益标的包括:液冷全链条解决方案提供商:液冷全链条解决

6、方案提供商:英维克;服务器冷板:服务器冷板:英维克(GPU/CPU)、飞荣达、高澜股份等;液冷产业链布局:液冷产业链布局:曙光数创、申菱环境、科华数据、依米康、同飞股份等;液冷服务器:液冷服务器:中兴通讯、紫光股份;液冷液冷 IDC供应商:供应商:宝信软件、润泽科技、光环新网、科华数据、奥飞数据、网宿科技等。风险提示:风险提示:国家政策变动风险、行业竞争加剧风险、数据中心发展不及预期。-24%-12%0%12%24%36%-072023-11通信沪深300相关研究报告相关研究报告 开源证券开源证券 证券研究报告证券研究报告 行业深度报告行业深度报告 行业研究行业研究 行业

7、深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 2/50 目目 录录 1、AIGC 时代,液冷技术发展迎来风口.5 1.1、人工智能发展与算力提升对散热有更高需求.5 1.1.1、高算力需求下 IDC 机柜数量持续增长.7 1.1.2、高算力需求下单机柜功耗持续增长.7 1.2、与传统风冷技术相比,液冷技术优势显著.9 1.3、全国 IDC 能耗偏高,政策对 PUE 提出新要求.13 1.4、运营商助推液冷解耦式交付,生态逐渐完善.17 2、冷板式液冷相对成熟,浸没式液冷长期发展空间大.20 2.1、冷板式液冷.21 2.1.1、单相冷板式液冷.21 2.1.2、相变冷板式液冷.

8、22 2.2、浸没式液冷.23 2.2.1、单相浸没液冷.23 2.2.2、相变浸没液冷.24 2.3、喷淋式液冷.25 2.4、液冷方式对比:冷板式液冷最成熟,浸没式液冷散热效果较好.26 3、液冷产业链拆解.27 3.1、一次侧.27 3.2、二次侧.29 3.2.1、冷板式液冷基础设施.29 3.2.2、浸没式液冷基础设施.33 3.3、液冷 IT 设备.34 4、行业参与者众多,“技术、客户认证、运维”构成核心竞争壁垒.36 4.1、液冷产业或将迎来高速增长期,众多公司积极布局.36 4.2、行业壁垒:技术、客户认证、运维等综合能力的竞争.39 5、液冷相关企业介绍.40 5.1、英维

9、克.40 5.2、中兴通讯.40 5.3、紫光股份.42 5.4、曙光数创.42 5.5、高澜股份.43 5.6、申菱环境.43 5.7、同飞股份.44 5.8、佳力图.44 5.9、飞荣达.45 5.10、依米康.45 5.11、浪潮信息.45 6、投资建议.47 7、风险提示.48 图表目录图表目录 图 1:全球算力规模维持高增长.5 RU3UZZFVTUBVPZ8O9RaQnPqQoMsOjMnNnOjMmNmO6MpOoPuOmMqQvPpPqM行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 3/50 图 2:中国液冷数据中心市场规模有望持续增长.6 图 3:中国液冷

10、数据中心每千瓦散热成本持续改善(元).7 图 4:我国数据中心机架数量持续增长.7 图 5:CPU 和 GPU TDP(W)持续增长.8 图 6:机柜功率密度与制冷方式.8 图 7:单机柜密度增长趋势下,列间空调数量逐渐增加,风冷散热渐显颓势.9 图 8:风冷和液冷工作原理.9 图 9:2019 年我国数据中心制冷设备能耗占比较高.10 图 10:液冷数据中心能耗分布.10 图 11:冷板式液冷和单相浸没液冷相较风冷,能耗和电费开支更低(2MW 机房).11 图 12:2022 年我国平均 PUE 水平仍然偏高.13 图 13:数据中心制冷技术逐渐向液冷发展.13 图 14:国家和地方政策对数

11、据中心 PUE 要求趋严.14 图 15:国内外液冷生态日益成熟.17 图 16:电信运营商提出液冷三年愿景,2024 年开展项目试点.17 图 17:冷板式液冷服务器交付模式区分.18 图 18:液冷系统二次侧基本组成示意图.20 图 19:液冷方式分类介绍.20 图 20:单相冷板式液冷原理示意图.21 图 21:冷板式液冷系统原理图.21 图 22:动力热管相变液冷示意图.22 图 23:SEGUENTE 重力热管方案示意图.22 图 24:浸没式液冷原理示意图.23 图 25:单相浸没液冷系统原理图.23 图 26:相变浸没液冷系统原理图.24 图 27:喷淋式液冷系统原理图.25 图

12、 28:液冷产业链上下游.27 图 29:液冷一次侧散热设备示意图.28 图 30:冷板组件构成示意图.29 图 31:冷板实物图.29 图 32:自锁式快速接头示意图.29 图 33:冷板服务器组件与 RCM 之间用快速接头连接.29 图 34:机柜工艺冷媒供回歧管(RCM).30 图 35:RCM 置于机柜背部.30 图 36:环形液冷管路示意图.30 图 37:LCM 用于连接 CDU 和机柜.30 图 38:CDU 内部构成示意图.31 图 39:分布式 CDU 放置于机柜下方.31 图 40:集中式 CDU 单独陈列.31 图 41:TANK+CDU+液冷服务器,二拖一结构.33 图

13、 42:单相浸没式 TANK 示意图.33 图 43:机架式 CPU 冷板液冷方案.34 图 44:风液复合半液式服务器背部.34 图 45:宁畅 A800 冷板式液冷服务器 X660 G45 LP.34 图 46:NVIDIA 液冷 A100 示意图.34 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 4/50 图 47:浸没式双路刀片服务器示意图.35 图 48:曙光浸没式液冷服务器“1 拖 2”单元结构.35 图 49:两种浸没式液冷部署方案.35 图 50:浸没式交换机置于 Tank 中.35 图 51:液冷电源与液冷光模块示意图.35 图 52:锐捷浸没式液冷交换

14、机示意图.35 图 53:中国液冷数据中心基础设施部署规模持续增长(MW).36 图 54:中国液冷数据中心市场规模持续增长(亿元).36 图 55:中国液冷服务器市场规模有望持续增长(亿美元).37 图 56:2023H1 浪潮、宁畅液冷服务器市场份额较高.37 图 57:液冷与风冷交付方式和竞争关系的区别.37 图 58:英维克 CPU 冷板.40 图 59:英维克 GPU 冷板.40 图 60:英维克 Coolinside 全链条液冷解决方案拆解图.40 图 61:英维克集中式浸没液冷 CDU+Tank 一拖多方案.40 图 62:中兴通讯液冷系统由服务器机柜、CDU、EDU、冷源组成.

15、41 图 63:新华三液冷解决方案.42 图 64:曙光数创冷板液冷数据中心产品拆解图.43 图 65:曙光数创浸没液冷数据中心基础设施产品效果图.43 图 66:高澜股份冷板式液冷服务器解决方案.43 图 67:高澜股份浸没式液冷服务器解决方案.43 图 68:天枢液冷温控系统.44 图 69:天辰相变冷却系统.44 图 70:同飞股份液冷 CDU.44 图 71:同飞股份冷板液冷全链条解决方案.44 图 72:飞荣达产品在服务器上的应用.45 图 73:浪潮信息液冷产业布局.46 表 1:随着机柜密度上升,风冷制冷难度与成本上升.9 表 2:数据中心制冷方式中,液冷优点颇多.11 表 3:

16、数据中心相关国家宏观政策.14 表 4:地方数据中心相关 PUE 要求.15 表 5:冷板式液冷服务器交付模式分析,一体化交付应用较广.18 表 6:解耦式交付与一体化交付对比,一体化交付模式较为成熟.19 表 7:各液冷方式对比,冷板式液冷是主流方案.26 表 8:一次侧冷源选择:开式冷却塔、闭式冷却塔、干冷器对比.28 表 9:不同一次侧进水温度下的冷源配置.28 表 10:集中式 CDU 与分布式 CDU 对比,大型数据中心以集中式 CDU 为主.31 表 11:各公司液冷解决方案推出时间.38 表 12:中兴通讯液冷服务器关键部件介绍.41 表 13:受益标的估值表.47 行业深度报告

17、行业深度报告 请务必参阅正文后面的信息披露和法律声明 5/50 1、AIGC 时代,时代,液冷技术发展迎来风口液冷技术发展迎来风口 AIGC 高速高速发展,带动数据中心发展,带动数据中心朝着朝着高密度化发展。高密度化发展。(1)主流计算芯片功耗不断增加;(2)AI 集群对算力密度有一定要求,训练单元过于分散不利于作业开展,减少组网距离亦可减少通信耗材开支。(3)单机柜功率不断上升,逼近风冷散热极限,液冷散热效率优于风冷,或将成为更佳选择。政策对政策对 PUE 要求趋严,引导数据中心绿色化发展。要求趋严,引导数据中心绿色化发展。我国数据中心耗电量与日俱增,数据中心平均 PUE 水平偏高,液冷方案

18、可使 PUE 降至 1.25 以下,充分满足政策要求。电信运营商提出解耦式交付,助推液冷标准化和规模化发展。电信运营商提出解耦式交付,助推液冷标准化和规模化发展。据中国三大电信运营商联合发布的电信运营商液冷技术白皮书,电信运营商提出三年愿景:推进液冷机柜与服务器解耦,引领形成统一标准,降低液冷全生命周期成本。服务器厂服务器厂商和生态链服务商积极布局液冷,商和生态链服务商积极布局液冷,促进液冷生态逐渐完善。促进液冷生态逐渐完善。1.1、人工智能发展与算力提升对散热有更高需求人工智能发展与算力提升对散热有更高需求 人工智能迎来新变革,带来大量算力和机柜需求。人工智能迎来新变革,带来大量算力和机柜需

19、求。2022 年底生成式 AI 大模型ChatGPT 横空出世,掀起新的 AI 浪潮,海内外互联网巨头、科技企业及研究机构等陆续投入到大模型研发当中,拉开“百模大战”的序幕,据浪潮信息发布的 2023-2024年中国人工智能计算力发展评估报告,截至 2023 年 10 月,中国累计发布两百余个大模型,其中以科研院所和互联网企业为开发主力军。随着 AI 语言大模型的不断迭代,模型数据量和参数规模呈现指数级增长,算力需求不断提升。以 GPT 模型为例,GPT-3 模型参数约为 1746 亿个,训练一次需要的总算力约为 3640 PF-days。据中国信通院数据,2023 年推出的 GPT-4 参数

20、数量可能扩大到 1.8 万亿个,是 GPT-3 的 10 倍,训练算力需求上升到 GPT-3 的 68 倍,在 2.5 万个 A100 上需要训练 90-100 天。无论是 AI 模型的训练还是推理均离不开算力资源的支持,AI 的高速发展带来大量算力和数据中心机柜需求,拉动算力基础设施建设。全球算力规模维持高增长。全球算力规模维持高增长。经中国信息通信研究院测算,在 FP32 精度下,2022年全球计算设备算力总规模达到 906 EFlops 并持续维持较高增速,增速达到 47%,其中基础算力规模为 440 EFlops,智能算力规模已超过基础算力规模,达到 451 EFlops,超算算力规模

21、为 16 EFlops。中国信通院预计 2024-2028 年全球算力规模将以超过 50%的速度增长,到 2025 年全球计算设备算力总规模将超过 3 ZFlops,至 2030 年将超过 20 ZFlops。图图1:全球算力规模维持高增长全球算力规模维持高增长 数据来源:中国信息通信研究院、IDC、Gartner、TOP500 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 6/50 AI 形成强大形成强大推动力推动力,液冷数据中心市场规模保持高速增长。,液冷数据中心市场规模保持高速增长。AIGC 的高速发展离不开高算力的支撑,随着计算芯片功耗持续上升带动服务器及整机柜功耗

22、上升,液冷散热有望成为首选。据科智咨询预计,2023 年中国液冷数据中心市场将同比增长 53.2%,市场规模将增长至 154 亿元,预计 2022-2027 年,中国液冷数据中心市场将以 59%的复合增长率持续蓬勃发展。预计到 2027 年,随着 AI 系列应用的规模化落地以及液冷生态的日趋成熟,市场规模将突破千亿大关。图图2:中国液冷数据中心市场规模中国液冷数据中心市场规模有望有望持续增长持续增长 数据来源:科智咨询、开源证券研究所,注:液冷数据中心市场规模统计维度包括液冷服务器和液冷数据中心基础设施市场规模(1)在需求方面,)在需求方面,随着 AI 大模型、云计算、5.5G 等新兴技术的不

23、断发展,互互联网、政府和电信行业仍为液冷数据中心的需求主力军,联网、政府和电信行业仍为液冷数据中心的需求主力军,金融、金融、下游制造、医疗、下游制造、医疗、能源等行业也有望不断加大液冷相关投入。能源等行业也有望不断加大液冷相关投入。(2)生态方面,)生态方面,液冷产业早期上液冷产业早期上下游协同性不高,无统一相关标准,难以形成下游协同性不高,无统一相关标准,难以形成合力。合力。液冷服务器是液冷生态链的核心价值环节,液冷服务器是液冷生态链的核心价值环节,近期近期众多服务器厂商先后推出液众多服务器厂商先后推出液冷服务器,冷服务器,其他其他设备厂商相继推出液冷交换机、液冷光模块设备厂商相继推出液冷交

24、换机、液冷光模块、液冷机柜等配套设备、液冷机柜等配套设备,积极布局液冷产业,液冷生态链设备商及服务供应商紧密配合,共同推动液冷生态进一步完善。三大电信运营商助推液冷解耦式交付,三大电信运营商助推液冷解耦式交付,引领液冷接口标准化、规范化引领液冷接口标准化、规范化发展,发展,构筑开放生态,液冷渗透率有望进一步提升。构筑开放生态,液冷渗透率有望进一步提升。(3)成熟度方面,)成熟度方面,冷板液冷发展较早,相比浸没式和喷淋式、生态更完善、改造成本更低、改造周期较短,冷板式液冷可作为传统风冷的平滑过渡,未来有望进冷板式液冷可作为传统风冷的平滑过渡,未来有望进一步向浸没式液冷转变。一步向浸没式液冷转变。

25、随着众多成熟液冷项目持续落地,液冷发展走向良性循环。(4)政策方面,)政策方面,IDC 耗电量与日俱增,数据中心绿色化发展成为共识,国家对国家对PUE 要求不断趋严,液冷相较风冷具有明显节能优势,减少冷却设备能耗,能有效要求不断趋严,液冷相较风冷具有明显节能优势,减少冷却设备能耗,能有效降低降低 PUE 至至 1.25 以下。以下。(5)成本方面,虽然液冷总体)成本方面,虽然液冷总体 Capex 仍高于风冷,但从单位角度来看,单千仍高于风冷,但从单位角度来看,单千瓦散热瓦散热 Capex 已在快速下降,成本拐点或将出现。已在快速下降,成本拐点或将出现。据赛迪顾问发布的2023 中国液冷应用市场

26、研究报告,2022 年液冷数据中心 1kW 的散热成本为近 6500 元,相比2022 年已经下降了 54.2%,预计 2023 年 1kW 的散热成本有望降至 5000 元左右,与传统风冷的建设成本已基本持平。随着单位散热成本持续下降,随着单位散热成本持续下降,液冷液冷 TCO 优势逐渐优势逐渐显著,显著,或将加速老旧风冷数据中心改建为液冷数据中心,液冷渗透率持续增长。0%20%40%60%80%020040060080092020202120222023E2024E2025E2026E2027E中国液冷数据中心市场规模(亿元)同比增速行业深度报告行业深度报告 请务必参

27、阅正文后面的信息披露和法律声明 7/50 图图3:中国液冷数据中心中国液冷数据中心每千瓦每千瓦散热成本散热成本持续改善持续改善(元)(元)数据来源:赛迪顾问、开源证券研究所,数据更新时间:2023.07 1.1.1、高算力需求下高算力需求下 IDC 机柜数量持续增长机柜数量持续增长 算力需求支撑我国数据中心机架规模持续增长。算力需求支撑我国数据中心机架规模持续增长。服务器设备是提供算力资源的主要载体,IDC(数据中心)则是给集中放置的 ICT 设备(服务器设备、网络设备、存储设备)提供运行环境的场所(数据中心=IT+电力+制冷)。AIGC 的兴起引发数据量和计算量快速增长,在一线城市数据中心资

28、源日趋紧张的情况下,AI 的高算力需求或将持续带动 IDC 的建设和机架数量的增长。据工信部、信通院数据,截至 2023年 6 月底,我国在用数据中心机架规模达到 760 万架,同比增速达到 28.8%,2022年底总机架规模达到 650 万架,2018-2022 年复合增速超过 30%。图图4:我国我国数据中心机架数量持续增长数据中心机架数量持续增长 数据来源:工信部、中国信息通信研究院、开源证券研究所 1.1.2、高算力需求下单机柜功耗持续增长高算力需求下单机柜功耗持续增长 计算芯片功耗持续攀升计算芯片功耗持续攀升,以满足高算力需求,以满足高算力需求。后摩尔定律时代下,芯片制程技术发展趋缓

29、,计算芯片多以提高核心数量等方式提高算力,导致计算芯片如 CPU 和GPU 的功耗不断攀升。AI 服务器作为人工智能发展的重要算力底座,CPU 和 GPU(或其他 ASIC 计算芯片)的整体功耗在 AI 服务器总功耗中占比达到 80%左右。(1)在 CPU 方面,从 2017 年 Intel 第一代铂金至强处理器的发布到 2023 年 12 月第五代处理器问世,核心数量从早期的 24 颗提升至最多 64 颗,同时 TDP(热设计功耗)从 150W 提升至最高 385W,功耗相比第一代提升超 2 倍;(2)在 GPU 方面,用于人工智能计算的GPU TDP从早期V100 Nvlink的300W提

30、升至H100 SXM的700W,未来功耗或将持续增长。0200040006000800040002020202120222023H10%10%20%30%40%50%020040060080020020202120222023H1在用数据中心机架规模(万标准机架)YOY行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 8/50 图图5:CPU 和和 GPU TDP(W)持续增长持续增长 资料来源:Intel 官网、Nvidia 官网、开源证券研究所 AI 服务器功率已达风冷散热瓶颈。服务器功率已达风冷散热瓶颈。(1)芯片单点冷却方面:

31、)芯片单点冷却方面:芯片功率密度的不断提升直接影响着芯片的散热和可靠性,逼近风冷散热上限 800W 左右,而液冷能有效满足芯片的散热需求。(2)机柜整体冷却方面:)机柜整体冷却方面:芯片功率的增加也导致整机柜功率的增长,采用传统风冷的数据中心通常可以解决 12kW 以内的机柜制冷。随着服务器单位功耗增大,同样尺寸的普通服务器机柜可容纳的服务器功率往往超过15kW,相对于现有的风冷数据中心,已逼近空气对流散热能力天花板。通用服务器功率平均在0.5KW左右,对于6KW、8KW的高功率机柜可以放置10台服务器以上。AI 服务器功率可达 6KW 以上,以 NVIDIA DGX A100 服务器为例,额

32、定功率约为4KW,单机最大功率约为 6.5KW。一个标准 42U 高度的机柜中,假设放置 5 个 5U高度的 AI 服务器,则需要超过 20KW 的单机柜功率,此时已超过风冷的散热极限,液冷或将成为最佳选择。图图6:机柜功率密度与制冷方式机柜功率密度与制冷方式 资料来源:中兴通讯中兴通讯液冷技术白皮书 数据中心机柜功率持续上升,在数据中心机柜功率持续上升,在 AI 驱动下功率增速或将加快。驱动下功率增速或将加快。根据 Uptime Institute 发布的2020 全球数据中心调查报告 统计,2011 年数据中心平均单机架功率仅为 2.4 kW/机架,2017 年上升到 5.6 kW/机架,

33、至 2020 年已达 8.4 kW/机架。AI 高速发展带来了高算力需求,芯片功耗随之不断增长,导致数据中心单机架的功率升高,从 4.4 kW/机架逐渐升高至 8 kW/机架、25 kW/机架、30 kW/机架甚至更高。单机柜功率持续上升,单机柜功率持续上升,液冷散热更具优势。液冷散热更具优势。在传统风冷机房微模块中,随着通用服务器或 GPU 服务器上架率的提升,单机柜功率密度不断增长,迫使列间空调数量大增,导致机柜数量减少,并出现风冷制冷技术成本高、难度大的问题,性价比较低。在单机柜功率上升趋势下,对于用于 AI 训练与推理的智算机柜,在不减少E5-2609 v48160T827692218

34、36884688593QP100V100A100 SXMH100 SXM005006007008002000222023CPU(Intel)GPU(NVIDIA)行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 9/50 AI 服务器上架量的情况下,单机柜功率或已超过风冷的散热极限,液冷可支持高密度散热,散热效率和成本等优势愈发显著。图图7:单机柜密度增长趋势下,单机柜密度增长趋势下,列间空调数量逐渐增加,列间空调数量逐渐增加,风冷散热渐显颓势风冷散热渐显颓势 数据来源:超聚变整机柜液冷服务器,构建低碳规模商用数

35、据中心、开源证券研究所 表表1:随着机柜密度上升,随着机柜密度上升,风冷风冷制冷难度与成本上升制冷难度与成本上升 1 6KW 机柜机柜 12KW 机柜机柜 18KW 机柜机柜 微模块机柜数量(柜)20 18 16 列间空调数量(柜)6 10 14 微模块功率密度(KW)120 216 288 标准服务器上架率(%)25 55 85 GPU 服务器上架率(%)8 25 34 制冷难度与成本 低 中 高 数据来源:超聚变整机柜液冷服务器,构建低碳规模商用数据中心、开源证券研究所 1.2、与传统风冷技术相比,液冷技术优势与传统风冷技术相比,液冷技术优势显著显著 液冷液冷散热散热相比传统风冷散热效果更

36、佳。相比传统风冷散热效果更佳。传统风冷技术是成熟且应用最广泛的数据中心散热技术,它以空气为介质进行散热,通过送入低温空气、经与电子器件进行热交换后,将热量带走。相较于液冷散热,风冷技术存在密度低、散热能力差、易形成局部热点、机械能耗大等缺陷。液冷方式则以液体为介质进行散热,由于液体的体积比热容是空气的 1000-3500 倍,意味着冷却液可以吸收大量热量而不会显著升高温度;液体的对流换热系数是空气的 10-40 倍,同等空间情况液冷的冷却能力远高于空气;只需提供中温液体即可满足元器件散热需求,比空气冷却方式散热效率更高,也更加节能。图图8:风冷和液冷工作原理风冷和液冷工作原理 资料来源:ODC

37、C冷板液冷标准化及技术优化白皮书、开源证券研究所 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 10/50 与风冷技术相比,液冷技术主要具有以下优势:与风冷技术相比,液冷技术主要具有以下优势:(1)低能耗)低能耗:液冷散热能显著降低制冷设备能耗。液冷散热能显著降低制冷设备能耗。传统风冷数据中心建成后,电费占运维总成本的 60%-70%。根据赛迪顾问统计数据显示,2019 年中国数据中心主要设备能耗占比中,制冷耗电占比(约 43%)位居第二,仅次于 IT 设备自身能耗占比(约 45%)。液冷技术相较传统风冷散热,取代大部分空调系统(压缩机)、风扇等高能耗设备,可实现节能 20

38、%-30%以上。以某液冷数据中心为例,液冷设备取代空调设备,耗能占比仅为 9%,数据中心 PUE 降低至 1.2 以下。此外,除了制冷系统自身能耗降低外,采用液冷散热技术有利于进一步降低芯片温度,芯片温度降低带来更高的可靠性和更低的能耗,整机能耗预计可降低约 5%。传热路径短:传热路径短:低温液体由 CDU(冷量分配单元)直接供给通讯设备;换热效率高:换热效率高:液冷系统一次测和二次测之间通过换热器实现液液换热,一次测和外部环境之间结合风液换热、液液换热、蒸发换热三种形式,具备更优的换热效果;制冷能效高制冷能效高:液冷技术可实现 4055高温供液,无需压缩机冷水机组,采用室外冷却塔,可实现全年

39、自然冷却。图图9:2019 年我国数据中心年我国数据中心制冷设备能耗占比较高制冷设备能耗占比较高 图图10:液冷数据中心能耗分布液冷数据中心能耗分布 数据来源:赛迪顾问、开源证券研究所,数据更新时间:2020.10 数据来源:赛迪顾问、开源证券研究所,数据更新时间:2020.10(2)高散热:)高散热:液冷解决高功率芯片的散热问题,延长设备寿命,减少折旧成本。液冷解决高功率芯片的散热问题,延长设备寿命,减少折旧成本。风冷容易产生局部热点,芯片长时间高温运行,影响芯片性能和使用寿命。研究发现,温度每升高 1 摄氏度电子器件的寿命缩短 5%,液冷可维持芯片低于临界温度 1020稳定运行,释放芯片最

40、大计算潜能,延长芯片使用寿命。液冷系统常用介质有去离子水、醇基溶液、氟碳类工质、矿物油或硅油等多种类型;这些液体的载热能力、导热能力和强化对流换热系数均远大于空气;因此,针对单芯片,液冷相比于风冷具有更高的散热能力。(3)低噪声:)低噪声:液冷散热技术利用泵驱动冷却介质在系统内循环流动并进行散热,解决全部发热器件或关键高功率器件散热问题;能够降低冷却风机转速或者采用无风机设计,从而具备较好的降噪效果,提升机房运维环境舒适性,解决噪声污染问题。(4)低)低 TCO:液冷初期:液冷初期 CAPEX 更高,但更高,但 OPEX 更低。更低。液冷技术具有更佳的节能效果,液冷数据中心 PUE 可降至 1

41、.2 以下,每年可节省大量电费,能够大幅降低数据中心运行成本。相比于传统风冷,液冷散热技术的应用虽然会增加一定的初45%43%10%2%IT设备制冷设备供电设备其他设备87%9%3%1%IT设备液冷设备供电设备其他设备行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 11/50 期投资,但可通过降低运行成本回收投资。以规模为 10MW 的数据中心为例,比较液冷方案(PUE1.15)和冷冻水方案(PUE1.35),预计 2.2 年左右可回收增加的基础设施初投资。同时,由于液冷服务器对空间的要求降低,可实现高密度设计,提高了数据中心内设备部署密度,降低数据中心 TCO。图图11:冷

42、板式液冷和单相浸没液冷冷板式液冷和单相浸没液冷相较风冷,能耗和电费开支更低(相较风冷,能耗和电费开支更低(2MW 机房)机房)数据来源:中兴通讯中兴通讯液冷技术白皮书、开源证券研究所,数据更新时间:2022.11(5)空间利用率空间利用率高:高:使用液冷系统的数据中心相对于传统的风冷数据中心更加简单,去掉了庞大的末端空调系统,提高了建筑利用率,在小空间里也能布置足够规模的服务器,单机柜功率密度得到较大提升,节省主机房空间 50%-80%;应用场景更易布置,受地理位置影响较小,全国布局皆可实现低 PUE 运行。(6)适应性强适应性强:冷板式液冷兼容性强,易配套开发,不需改变原有形态和设备材料;空

43、间利用率高,可维护性强,布置条件与普通机房相近,可直接与原制冷系统(常规冷冻水系统)兼容适应。(7)余热回收易实现余热回收易实现:相比传统水温,使用液冷方案的水温更高,温差大,热源品味和余热系统效率高。表表2:数据中心制冷方式数据中心制冷方式中,液冷优点颇多中,液冷优点颇多 制冷方式制冷方式 风冷直膨式系统风冷直膨式系统 水冷冷水系统水冷冷水系统 氟泵系统氟泵系统 间接蒸发系统间接蒸发系统 液冷系统液冷系统 适用环境 对环境无要求,但是无法实现自然冷却 水资源充沛地区 低温高寒地区 常年干燥低湿地区 全年全地域自然冷却,不受气候影响 安装方式要求 对安装距离和高差有要求 安装距离、安装方式不受

44、限制 对安装距离和高差有要求 设备体型较大,对建筑的层高要求高,安装方式较为单一,老旧厂房改造难度大 安装距离、安装方式不受限制 热流密度 低热流密度 低热流密度 低热流密度 低热流密度 中高热流密度或超高热流密度 适用配置 适合小型数据中心 适合中大型数据中心 适合小型数据中心 适合中大型数据中心 适合各种场景,尤其适用中大型数据中心 制冷效率 制冷效率低 制冷效果一般 制冷效率较高 制冷效率较高 全年自然冷却,无机械制冷,制冷效率高 建设及运营成本 建设成本低,运行成本高,运维工作量小 建设成本高,运行成本较低,运维工作量大 建设成本适中,运行成本较低,运维简单 建设成本适中,运行成本较低

45、,运维工作量大 建设成本适中,运行成本低,运维工作量小 02004006008000冷却功耗(KW)冷却电费(万元)传统风冷冷板式液冷浸没式液冷行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 12/50 制冷方式制冷方式 风冷直膨式系统风冷直膨式系统 水冷冷水系统水冷冷水系统 氟泵系统氟泵系统 间接蒸发系统间接蒸发系统 液冷系统液冷系统 散热能力 单机柜 15kW 以内(采用列间空调,小规模部署,易产生局部热点)单机柜 15kW 以内(采用列间空调,小规模部署,易产生局部热点)单机柜 15kW 以内(采用列间空调,小规模部署,易产生局部热点)单机柜 8k

46、W 以内,易产生局部热点 单机柜 20kW 以上最大可达到单机柜 200kW,无局部热点 噪音及振动 高 高 高 高 低振动或无振动 热回收 无法热回收 热回收利用率低,建设及运行成本高 热回收利用率低,建设及运行成本高 无法热回收 热回收利用率高,易于热回收,建设及运行成本低 成熟度 成熟度高 成熟度高 成熟度适中 成熟度适中 成熟度适中 可维护性 维护简便 维护复杂 维护简便 维护复杂 可维护性适中 资料来源:中兴通讯中兴通讯液冷技术白皮书、开源证券研究所 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 13/50 1.3、全国全国 IDC 能耗偏高,能耗偏高,政策对政策

47、对 PUE 提出新要求提出新要求 数据中心已成为新“能耗大户”。数据中心已成为新“能耗大户”。电力资源作为算力发挥作用的必备条件,消耗程度也大幅增长。据中国能源报,2022 年全国数据中心耗电量达到 2700 亿千瓦时,占全社会用电量约 3%。2021 年全国数据中心耗电量为 2166 亿千瓦时,为同期三峡电站累计发电量 1036.49 亿千瓦时的两倍。随着互联网数字化进程加速推进,预计到 2025 年,全国数据中心用电量占全社会用电量的比重将提升至 5%,到 2030 年全国数据中心耗电量将接近 4000 亿千瓦时。数据中心减排迫在眉睫,优化算力平均能源消耗,打造绿色算力,是未来算力发展的重

48、点目标。我国数据中心平均我国数据中心平均 PUE 仍处于较高水平仍处于较高水平,节能降耗空间较大,节能降耗空间较大。据中国信通院数据,2022 年,我国在用数据中心平均 PUE 为 1.52,部分数据中心存在实际运行 PUE值与设计 PUE 值相差大的问题;据数据中心绿色能源技术联盟统计,2021 年度全国数据中心平均 PUE 为 1.49,仅有 41%的数据中心 PUE 在 1.4 以下,并且有相当数量的数据中心 PUE 仍超过 1.8 甚至 2.0。我国数据中心 PUE 仍处于较高水平,液冷方案能大幅降低 PUE,潜在应用空间较大。随着政策的逐步落地,下游行业对液冷技术的认可度提升,液冷散

49、热渗透率有望持续提升。图图12:2022 年我国年我国平均平均 PUE 水平仍然偏高水平仍然偏高 数据来源:中国信通院 液冷散热技术可实现更低液冷散热技术可实现更低 PUE,助力数据中心绿色化发展,助力数据中心绿色化发展。液冷散热相较于传统风冷,取代大部分空调系统(压缩机)、风扇等高能耗设备,可实现节能 20%-30%以上。图图13:数据中心制冷技术数据中心制冷技术逐渐向液冷发展逐渐向液冷发展 资料来源:中兴通讯中兴通讯液冷技术白皮书 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 14/50 政策引导数据中心绿色低碳加速发展。政策引导数据中心绿色低碳加速发展。2021 年

50、9 月,中共中央国务院关于完整准确全面贯彻新发展理念做好碳达峰碳中和工作的意见 要求推动互联网、大数据、人工智能、第五代移动通信(5G)等新兴技术与绿色低碳产业深度融合,提升数据中心、新型通信等信息化基础设施能效水平,助力实现碳达峰、碳中和目标。随着我国碳达峰碳中和战略的深入推进,国家层面出台多项政策促进数据中心绿色化发展,降低“老旧小散”数据中心能源消耗。在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群,标志着“东数西算”工程正式全面启动。数据中心作为“新基建”重要内容,被赋予绿色低碳等新内涵。数据中心作为“

51、新基建”重要内容,被赋予绿色低碳等新内涵。在落实节能降碳方面,政策明确要求到 2023 年底新建大型及以上数据中心 PUE 降低到 1.3 以下;到 2025 年,数据中心运行电能利用效率和可再生能源利用率明显提升,全国新建大型、超大型数据中心平均电能利用效率降到 1.3 以下,国家枢纽节点进一步降到 1.25 以下,绿色低碳等级达到 4A 级以上,旨在有序推动以数据中心为代表的新型基础设施绿色高质量发展,发挥其“一业带百业”作用,助力实现碳达峰碳中和目标。图图14:国国家家和地方政策对数据中心和地方政策对数据中心 PUE 要求要求趋严趋严 资料来源:智能计算产业联盟国家“东数西算”工程背景下

52、新型算力基础设施发展研究报告 表表3:数据中心相关国家宏观政策数据中心相关国家宏观政策 发文名称发文名称 发布时间发布时间 发文机构发文机构 重点内容重点内容 关于加强绿色数据中心建设的指导意见 2019 年 1 月 工业和信息化部等三部门 建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型。全国一体化大数据中心协同创新体系算力枢纽实施方案 2021 年 5 月 国家发展改革委员会 加强绿色集约建设。完善覆盖电能使用效率、算力使用效率、可再生能源利用率等指标在内的数据中心综合节能评价标准体系。新型数据中心发展三年行动计划(2021-2023 年)2021 年 7

53、月 工业和信息化部 至 2023 年底,全国数据中心机架规模年均增速保持在 20%左右,平均利用率力争提升到 60%以上,总算力超过 200 EFLOPS,高性能算力占比达到 10%。国家枢纽节点算力规模占比超过 70%。新建大型及以上数据中心 PUE 降低至 1.3 以下,严寒和寒冷地区力争降低到 1.25 以下。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 15/50 发文名称发文名称 发布时间发布时间 发文机构发文机构 重点内容重点内容 贯彻落实碳达峰碳中和目标要求推动数据中心和 5G等新型基础设施绿色高质量发展实施方案 2021 年 11 月 国家发改委等四部门 到

54、2025年,数据中心和5G基本形成绿色集约的一体化 运行格局。数据中心运行电能利用效率和可再生能源利用 率明显提升,全国新建大型、超大型数据中心平均电能利用效率降到 1.3 以下,国家枢纽节点进一步降到 1.25 以下,绿色低碳等级达到 4A 级以上。深入开展公共机构绿色低碳引领行动促进碳达峰实施方案 2021 年 11 月 国家机关事务管理局等四部门 推动数据中心绿色化。推动存量“老旧”数据中心升级改造,“小散”数据中心腾退、整合,降低“老旧小散”数据中心能源消耗。新建大型、超大型数据中心全部达到绿色数据中心要求,绿色低碳等级达到 4A 级以上,电能利用效率(PUE)达到 1.3 以下。鼓励

55、申报绿色数据中心评价,发挥示范引领作用。工业能效提升行动计划 2022 年 6 月 工业和信息化部等六部门 推进重点领域能效提升绿色升级。持续开展国家绿色数据中心建设,发布名单及典型案例,加强绿色设计、运维和能源计量审查。引导数据中心扩大绿色能源利用比例,推动老旧数据中心实施系统节能改造。到 2025 年,新建大型、超大型数据中心电能利用效率(PUE,指数据中心总耗电量与信息设备耗电量的比值)优于 1.3。信息通信行业绿色低碳发展行动计划(2022-2025 年)2022 年 8 月 工业和信息化部等七部门 加大先进节能节水技术应用。强化绿色设计,加快自然冷源、近端制冷、液冷等制冷节能技术应用

56、,鼓励采用预制模块化机房及高密度、虚拟化等高效 IT 系统方案,推广高压直流供电、高效交流不间断电源、集成式电力模块等技术和产品,发展智能化能源管控系统。资料来源:ODCC绿色节能液冷数据中心白皮书、开源证券研究所 表表4:地方数据中心相关地方数据中心相关 PUE 要求要求 地区地区 年平均气温年平均气温 具体描述具体描述 北京 12.3 年能源消费量小于 1 万吨标准煤的项目 PUE 值不应高于 1.3;年能源消费量大于等于 1 万吨标准煤且小于 2 万吨标准煤的项目,PUE 值不应高于 1.25;年能源消费量大于等于 2 万吨标准煤且小于 3 万吨标准煤的项目,PUE 值不应高于 1.2;

57、年能源消费量大于等于 3 万吨标准煤的项目,PUE 值不应高于 1.15;1.4 PUE 1.8,每度电加价¥0.2;PUE1.8,每度电加价¥0.5 上海 16.6 到 2024 年,新建大型及以上数据中心 PUE 降低到 1.3 以下,起步区内降低到 1.25 以下。推动数据中心升级改造,改造后的 PUE 不超过 1.4。广东 22.6 新增或扩建数据中心 PUE 不高于 1.3,优先支持 PUE 低于 1.25 的数据中心项目,起步区内 PUE 要求低于 1.25 浙江 16.5 到 2025 年,大型及以上数据中心电能利用效率不超过 1.3,集群内数据中心电能利用效率不得超过 1.25

58、 江苏 15.5 到 2023 年底,全省数据中心机架规模年均增速保持在 20%左右,平均利用率提升到 65%,全省新型数据中心比例不低于 30%,高性能算力占比达 10%,新建大型及以上数据中心电能利用效率(PUE)降低到 1.3 以下,起步区内电能利用效率不得超过 1.25 山东 14.7 自 2020 年起,新建数据中心 PUE 值原则上不高于 1.3,到 2022 年年底,存量改造数据中心 PUE 值不高于 1.4。到 2025 年,实现大型数据中心运行电能利用效率降到 1.3 以下。优先支持 PUE值低于 1.25,上架率高于 65%的数据中心新建、扩建项目 青岛 12.7 新建 P

59、UE 值不高于 1.3,至 2022 年存量改造 PUE 值不高于 1.4 重庆 18.4 到 2025 年,电能利用效率(PUE)不高于 1.3。集群起步区内 PUE 不高于 1.25。甘肃:到 2023 年底,大型及超大型数据中心的 PUE 降到 1.3 以下,中小型数据中心的 PUE 降行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 16/50 地区地区 年平均气温年平均气温 具体描述具体描述 到 1.4 以下;到 2025 年底,大型及超大型数据中心的 PUE 力争降到 1.25 以下,中小型数据中心的 PUE 力争降到 1.35 下 四川 15.3 到 2025 年

60、,电能利用效率(PUE)不高于 1.3。集群起步区内 PUE 不高于 1.25。各市(州)要充分发挥已建在建数据中心作用,除天府数据中心集群外,区域内平均上架率未达到 60%、平均PUE 值未达到 1.3 及以下的,原则上不得新建数据中心。内蒙古 4.3 到 2025 年,全区大型数据中心平均 PUE 值降至 1.3 以下,寒冷及极寒地区力争降到 1.25 以下,起步区做到 1.2 以下 宁夏 9.5 到 2025 年,建成国家(中卫)数据中心集群,集群内数据中心的平均 PUE 1.15,WUE 0.8,分级分类升级改造国家(中卫)数据中心集群外的城市数据中心,通过改造或关停,到 2025 年

61、,力争实现 PUE 降至 1.2 及以下。贵州 15.5 引导大型和超大型数据中心设计 PUE 值不高于 1.3;改造既有大型、超大型数据中心,使其数据中心 PUE 值不高于 1.4。实施数据中心减量替代,根据 PUE 值严控数据中心的能源消费新增量,PUE 低于 1.3 的数据中心可享受新增能源消费量支持。资料来源:中兴通讯中兴通讯液冷技术白皮书、开源证券研究所 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 17/50 1.4、运营商运营商助推助推液冷液冷解耦式交付,生态逐渐完善解耦式交付,生态逐渐完善 液冷技术规范化程度较低,产品形态各异。液冷技术规范化程度较低,产品形

62、态各异。我国液冷技术起步稍晚于国外,起步后发展迅速,目前与国外发展进程基本同步,但当前液冷生态尚不完善,机柜与服务器深度耦合,各家服务器设备、冷却液、制冷管路、供配电等产品形态各异,不同厂家产品接口不同,尚无统一接口标准,难以标准化、规模化推广应用。图图15:国内外液冷国内外液冷生态日益成熟生态日益成熟 资料来源:三大电信运营商电信运营商液冷技术白皮书、开源证券研究所 电信运营商提出三年愿景,液冷电信运营商提出三年愿景,液冷发展按下“加速键”。发展按下“加速键”。据三大电信运营商联合发布的电信运营商液冷技术白皮书,电信运营商提出三年愿景:构筑开放生态,降低 PUE 与 TCO;发挥规模优势,大

63、力拓展应用。冷板式液冷方面,推进形成拥有原创技术、接口标准统一、产业生态完善、接口标准统一、产业生态完善、应用规模最大的发展态势;浸没式液冷方面,推进形成标准统一化、产品国产化、实施工程化、推广规模化的发展格局。电信运营商液冷技术白皮书提出:2023 年开展技术验证,充分验证液冷技术性能,降低 PUE,储备规划、建设与维护等技术能力;2024 年开展规模测试,推进液冷机柜与服务器解耦,促进竞争,推进产业生态成熟,降低全生命周期成本;至 2025 年,开展规模应用,共同推进形成标准统一、生态完善、成本最优、规模应用的高质量发展格局,电信行业力争成为液冷技术的引领者、产业链的领航者、推广应用的领先

64、者。运营商近年来对算力基础设施的资本开支增长较快,我们认为运营商大力开展液冷技术验证,有望加速液冷数据中心的标准化,完善液冷生态。图图16:电信运营商电信运营商提出提出液冷三年愿景液冷三年愿景,2024 年开展项目试点年开展项目试点 资料来源:三大电信运营商电信运营商液冷技术白皮书、开源证券研究所 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 18/50 冷板式液冷服务器可细分为三种交付方式冷板式液冷服务器可细分为三种交付方式,一体化交付相对成熟,一体化交付相对成熟。液冷系统涉及一次侧散热系统、二次侧散热系统、CDU、液冷机柜、液冷服务器的对接,根据 IT 设备侧与机房配套

65、侧各自的交付内容,液冷服务器可分为三种交付模式:模式一:IT侧仅交付液冷服务器;模式二:IT 侧交付“液冷服务器+液冷机柜”;模式三(一体化交付):IT 侧交付“液冷服务器+液冷机柜+CDU+二次侧管路”,是当下应用案例较为广泛、成熟度最好的交付模式。图图17:冷板式液冷服务器交付模式冷板式液冷服务器交付模式区分区分 资料来源:三大电信运营商电信运营商液冷技术白皮书、开源证券研究所 表表5:冷板式液冷服务器交付模式分析冷板式液冷服务器交付模式分析,一体化交付应用较广,一体化交付应用较广 方案对比方案对比 模式一模式一 模式二模式二 模式三(一体化交付)模式三(一体化交付)备注备注 方案内容 1

66、、IT 侧负责液冷服务器 2、其他配套全部由其他公司统一建设 1、IT 侧负责“液冷服务器+液冷机柜(整机柜)”等 2、其他配套全部由其他公司统一建设 1、IT 侧负责“服务器+机柜+CDU+冷却液+二次侧管路”等;2、其他配套全部由其他公司统一建设 技术评估 应用案例少,产品成熟度较差,需要较多服务器定制和接口对接验证,存在兼容性风险 兼容性对接内容较少,但整机柜方案对机房入口、电梯、走道等搬运空间和运输通道要求高。应用案例相对更多,业界产品更成熟,整体交付责任界面较清晰,但整机柜方案对机房入口、电梯、走道等搬运空间和运输通道承载要求更高。业界尚无完善的兼容性标准,现行液冷产品普遍存在厂家服

67、务器和液冷机柜等配套设施整体打包交付情况 建设周期 机柜分离建设方式,需要进行服务器与配套间的对接,建设周期相对较长 配套对接相对较少,比风冷周期长,但比机柜分开建设周期短,整机柜方案工厂完成主要集成,现场交付周期相对短 配套对接最少,比风冷周期长,由于服务器整机柜打包交付,实施复杂度最小和建设周期相对最短 均比风冷建设周期长,预计 6 个月以上,无法做到类似现网风冷快速上线 方案优点 界面与传统风冷类似 产品成熟度较好,配套对接内容少,交付及后期运维风险较小 当前产品和解决方案成熟度最好,项目实施难度最小 方案缺点 产品成熟度较差,建设周期较长 IT 侧运维范围相对较大,增加机柜内水路运维

68、IT 侧运维范围最大,尤其包含 CDU 及二次测管路等非常规 IT 类设备 资料来源:ODCC冷板液冷服务器设计白皮书、开源证券研究所 解耦交付或将促进液冷行业走向标准化解耦交付或将促进液冷行业走向标准化。(1)解耦交付是液冷机柜与液冷服务器之间遵循用户统一制定的接口设计规范,机柜与服务器解耦,由不同厂商交付,基础设施和服务器厂家需协调合作。(2)一体化交付是液冷整机柜(包括机柜和服务器)由厂商自定标准进行集成设计开发,整机柜由同一厂商一体化交付。我们认我们认为解耦交付的推进使液冷技术更易于推广与灵活部署,最终降低液冷整体为解耦交付的推进使液冷技术更易于推广与灵活部署,最终降低液冷整体 TCO

69、,加,加行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 19/50 强液冷散热竞争力,利于提高液冷行业渗透率。强液冷散热竞争力,利于提高液冷行业渗透率。表表6:解耦式交付与一体化交付对比解耦式交付与一体化交付对比,一体化交付模式较为成熟,一体化交付模式较为成熟 交付模式分析交付模式分析 解耦交付解耦交付 一体化交付一体化交付 服务器厂商职责范围 提供液冷服务器设备,还需明确液冷服务器进回水的温度、压力、水质、监控范围的要求,液冷基础设施连接头的要求、配电要求 提供液冷整机柜及二次到管路的整体设计解决方案 服务器 多厂家 单厂家 整体适配性 根据既定接口及标准分别生产机柜与服务

70、器,测试阶段进行适配 原厂机柜和原厂服务器适配性较好,无法与非原厂设备匹配 整体机房管理 可形成统一标准及规范,后续易管理 各厂家标准不同,不容易对接 安装模式 批量生产,规模推广,灵活部詈。基础设施和服务器厂家需协调合作。机柜供应商提供机柜级的漏液监测功能 与服务器结合部署 采购模式 机柜与服务器分别采购,促进竞争,有利于降低价格 统一采购,受厂家限制较多 运维管理 机柜与服务器分别交付,需明确责任界面,需明确责任主体。各机柜及服务器配置统一,运维方式相同,易于统一管理 同厂家整机柜交付,责任界面清晰;异常厂家运维方式、接口、数据类型不同,需分别运维管理 产业成熟度 当前尚不成熟 当前较成熟

71、 服务器/整机柜交付周期 盲插快接模式:对现有软管快接厂家,服务器深度定制开发,交付周期约 9 个月;软管快接模式:对服务器进行浅度定制开发或无需定制,交付周期约 3 个月 主流厂商已有量产的产品 分析 当下不同液冷供应商之间产品的适配和兼容有一定困难,服务器与机柜之间,机柜与不同品牌服务器之间可能存在不适配的风险,需标准引领,服务器与机柜统一接口标准,提前开展对接联调、验证测试等 当下液冷技术在产业化和标准化方面还处于发展阶段,液冷服务器和机柜无统一标准,一体交付模式不利于在液冷产业标准方面进行技术积累和创新引领 资料来源:三大电信运营商电信运营商液冷技术白皮书、开源证券研究所 行业深度报告

72、行业深度报告 请务必参阅正文后面的信息披露和法律声明 20/50 2、冷板式液冷冷板式液冷相对相对成熟,浸没式液冷成熟,浸没式液冷长期发展空间大长期发展空间大 液冷是以液体工质为传热介质,带走设备热量的散热方式。液冷是以液体工质为传热介质,带走设备热量的散热方式。液冷散热系统通常由至少两个相互隔离的循环回路组成,其中供给设备的内循环也称作二次侧,将热量传递给外界环境的循环也叫一次侧,两个循环通过 CDU 内置的板换进行隔离和交换热量。图图18:液冷系统液冷系统二次侧二次侧基本组成基本组成示意图示意图 资料来源:ODCC冷板式液冷服务器可靠性测试规范 单相单相冷板式液冷冷板式液冷和和单相浸没式液

73、冷为主要形式。单相浸没式液冷为主要形式。流体工质吸收热量的方式有两种:一种是通过流体温度升高而吸收热量,此时流体形态始终保持液态,也称作单单相液冷相液冷;另一种是由液态转变为气态通过汽化潜热转移热量,此时流体的形态发生了变化,也称作相变液冷相变液冷(又称“双相液冷”(又称“双相液冷”或或“两相液冷”)“两相液冷”)。根据冷却液与发热源的接触方式,液冷技术可以分为非接触式液冷和接触式液冷两大类。非接触式液冷可分为单相冷板式液冷和相变冷板式液冷,目前主要以单相冷板式液冷(下文提及冷板式液冷均为单相冷板式液冷)为主,相变冷板式液冷尚不成熟;接触式液冷的液体与发热源直接接触,包括单相浸没式液冷、相变浸

74、没式液冷和喷淋式液冷三种。图图19:液冷方式分类液冷方式分类介绍介绍 资料来源:开源证券研究所 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 21/50 2.1、冷板式液冷冷板式液冷 2.1.1、单相冷板式液冷单相冷板式液冷 冷板式液冷属于非接触式液冷,是通过液冷板(通常为铜铝等导热金属构成的封闭腔体)将发热器件的热量间接传递给封闭在循环管路中的冷却液体,通过冷却液体将热量带走的一种散热形式。液体不与发热源直接接触,冷却液多采用去离子水。根据液冷板覆盖范围的不同可分为:(1)风液复合半液冷:仅处理器或处理器和内存采用冷板液冷散热,其他部件采用风冷散热;(2)风液复合全液冷:

75、处理器和内存采用冷板液冷散热,其他部件采用风冷散热,热量由液冷门带走;(3)全冷板液冷:处理器、内存、硬盘、标卡、PSU 以及节点内所有其他部件都采用冷板液冷散热。目前冷板式液冷方案以风液复合半液冷和风液复合全液冷为主。图图20:单相冷板式液冷原理示意图单相冷板式液冷原理示意图 资料来源:ODCC冷板液冷服务器设计白皮书 冷板式液冷系统主要由冷却塔、CDU、一次侧和二次侧液冷管路、冷却介质、液冷机柜组成;其中液冷机柜内包含液冷板、设备内液冷管路、流体连接器(QDC)、分液器(RCM)等。图图21:冷板式液冷系统原理图冷板式液冷系统原理图 资料来源:ODCC冷板式液冷标准化及技术优化白皮书 单相

76、冷板式液冷作为非接触式液冷的一种,行业内具有 10 年以上的研究积累,在主流液冷方案中技术成熟度最高,在主流液冷方案中技术成熟度最高,对现有服务器芯片组件及附属部件改动量较小,对现有服务器芯片组件及附属部件改动量较小,行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 22/50 过渡平缓,过渡平缓,是解决大功耗设备部署、提升能效、降低制冷运行费用、降低是解决大功耗设备部署、提升能效、降低制冷运行费用、降低 TCO 的的有效应用方案有效应用方案,具有以下技术特性和优势:(1)产品架构兼容性:可兼容现有硬件架构;(2)机房适应性:灵活适用于旧机房改造和新建机房;(3)可靠性:液体与

77、设备不直接接触,可靠性更高;(4)维护性:易开展维护性设计,可实现在线维护方案;(5)节能:数据中心的 PUE 值可降至 1.2 以下;(6)噪声:风机转速大幅降低,噪声值可至 70dB 左右。2.1.2、相变冷板式液冷相变冷板式液冷 相变冷板式液冷散热冷能力更强,目前尚不成熟。相变冷板式液冷散热冷能力更强,目前尚不成熟。以氟化物作为工艺冷媒能有效提升冷板液冷系统可靠性,由于部分氟化物沸点较低,在冷板内吸收热量后蒸发汽化,大大提升冷板的散热能力,该技术可称为相变冷板式液冷。NVIDIA 和国内厂商有使用制冷剂泵驱动的动力热管解决方案,这种方案可使散热器与机柜的相对位置更加灵活,可支持多机柜的多

78、联系统。但目前均处在预研阶段,商业化程度还相对较低。此外,还有重力热管方案等相变冷板冷却技术。图图22:动力热管相变液冷示意图动力热管相变液冷示意图 图图23:SEGUENTE 重力热管方案示意图重力热管方案示意图 资料来源:互联网数据中心产业技术创新战略联盟绿色节能液冷数据中心白皮书 资料来源:互联网数据中心产业技术创新战略联盟绿色节能液冷数据中心白皮书 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 23/50 2.2、浸没式液冷浸没式液冷 浸没式液冷浸没式液冷属于接触式液冷,属于接触式液冷,是以冷却液作为传热介质,将发热器件完全浸没是以冷却液作为传热介质,将发热器件完全

79、浸没在冷却液中,发热器件与冷却液直接接触并进行热交换的制冷形式。在冷却液中,发热器件与冷却液直接接触并进行热交换的制冷形式。浸没式液冷系统室外侧包含冷却塔、一次侧管网、一次侧冷却液;室内侧包含 CDU、浸没腔体(Tank)、IT 设备、二次侧管网和二次侧冷却液。其中,Tank 又由密闭箱体、液体分配单元、温度传感器、液位传感器等组成,作为电子元件与液体进行热交换的场所,为电子元器件提供安全可靠的冷却环境,是单相浸没式液冷系统的核心部件;室外冷却设备可选择干冷器、开式冷却塔或闭式冷却塔等。使用过程中 IT 设备完全浸没在二次侧冷却液中,因此二次侧循环冷却液需要采用不导电液体,如矿物油、硅油、氟化

80、液等。浸没式液冷可完全去除散热风扇(噪音更低),换热能力强,节能效果好,数据中心 PUE 值可降至 1.1 及以下,但一般需要改为箱式部署,部署密度一般低于冷板式液冷,机房配套和服务器改造难度和成本也较大。图图24:浸没式液冷浸没式液冷原理示意图原理示意图 资料来源:ODCC冷板液冷服务器设计白皮书 按照热交换过程中冷却液是否存在相态变化,可分为单相浸没液冷和两相浸没液冷两类。2.2.1、单相浸没液冷单相浸没液冷 作为传热介质的二次侧冷却液在热量传递过程中仅发生温度变化,而不存在相态转变,过程中完全依靠物质的显热变化传递热量。图图25:单相浸没液冷系统原理图单相浸没液冷系统原理图 资料来源:中

81、兴通讯中兴通讯液冷技术白皮书 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 24/50 在单相浸没液冷系统中,CDU 循环泵驱动二次侧低温冷却液由浸没腔体底部进入,流经竖插在浸没腔体中的 IT 设备时带走发热器件热量;吸收热量升温后的二次侧冷却液由浸没腔体顶部出口流回 CDU;通过 CDU 内部的板式换热器将吸收的热量传递给一次侧冷却液;吸热升温后的一次侧冷却液通过外部冷却装置(如冷却塔)将热量排放到大气环境中,完成整个制冷过程。单相浸没式液冷相较冷板液冷,噪音更低,换热能力更强,由于不存在相变,运维难度相对较低,应用案例较多。2.2.2、相变相变浸没液冷浸没液冷 作为传热

82、介质的二次侧冷却液在热量传递过程中发生相态转变,依靠物质的潜热变化传递热量。图图26:相相变变浸没液冷系统原理图浸没液冷系统原理图 资料来源:中兴通讯中兴通讯液冷技术白皮书 相相变变浸没液冷系统传热路径与单相浸没液冷基本一致。浸没液冷系统传热路径与单相浸没液冷基本一致。主要差异在于二次侧冷却液仅在浸没腔体内部循环,浸没腔体内顶部为气态区、底部为液态区:IT 设备完全浸没在低沸点的液态冷却液中,液态冷却液吸收设备热量后发生沸腾,汽化产生的高温气态冷却液因密度较小,会逐渐汇聚到浸没腔体顶部,与安装在顶部的冷凝器发生换热后冷凝为低温液态冷却液,随后在重力作用下回流至腔体底部,实现对IT 设备的散热。

83、相变浸没冷却系统中冷却介质与发热器件直接接触,减少了热阻;与非相变浸没散热方式相比,相变换热效率高,潜热(相变)为显热(非相变)的数百倍。通过表面处理技术强化沸腾传热,可大大提高传热效率,相变浸没式液冷技术可使 CPU核温低于 65。可满足高发热原件对散热的极端需求,允许芯片超频运行,性能约可提升 10-30%,相当于单位算力的拥有成本可降低单位算力的拥有成本可降低 10-25%。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 25/50 2.3、喷淋式液冷喷淋式液冷 喷淋式液冷喷淋式液冷属于接触式液冷,属于接触式液冷,是面向芯片级器件精准喷淋,通过重力或系统压是面向芯片级器

84、件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式。力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式。喷淋式液冷系统主要由冷却塔、CDU、一次侧和二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。图图27:喷淋式液冷系统原理图喷淋式液冷系统原理图 资料来源:中兴通讯中兴通讯液冷技术白皮书 在喷淋式液冷系统中,冷量分配单元内冷却后的冷却液被泵通过管路输送至喷淋机柜内部;冷却液进入机柜后直接通过分液器进入与服务器相对应的布液装置,或将冷却液输送至进液箱以提供固定大小的重力势能以驱动冷却

85、液通过布液装置进行喷淋;冷却液通过 IT 设备中的发热器件或与之相连的导热材料进行喷淋制冷;被加热后的冷却液将通过回液箱进行收集,并通过泵输送至冷量分配单元进行下一个制冷循环。喷淋式液冷也可完全去除散热风扇,换热能力强,相较于浸没式液冷节省冷却液,数据中心 PUE 可降至 1.1 左右。喷淋式液冷需要对机柜和服务器机箱进行改造,运维难度较大,目前应用案例较少,生态单一。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 26/50 2.4、液冷方式对比:冷板式液冷最成熟,浸没式液冷散热效果较好液冷方式对比:冷板式液冷最成熟,浸没式液冷散热效果较好 现阶段冷板式液冷生态最为成熟,可

86、靠性较高。现阶段冷板式液冷生态最为成熟,可靠性较高。对比目前主流的 4 种液冷方式来看:(1)初始投资方面:相变浸没式单相浸没式单相冷板式喷淋式;(2)节能效果方面:相变浸没式单相浸没式喷淋式单相冷板式;(3)运维难度方面:喷淋式相变浸没式单相浸没式单相冷板式;(4)成熟度方面:单相冷板式单相浸没式相变浸没式喷淋式。综合考量初始投资成本、PUE 效果、可维护性以及产业成熟度等因素,单相冷单相冷板式和单相浸没式相较其他液冷技术更有优势,是当前业界的主流解决方案。冷板板式和单相浸没式相较其他液冷技术更有优势,是当前业界的主流解决方案。冷板式液冷可以实现从传统风冷模式的平滑过渡,式液冷可以实现从传统

87、风冷模式的平滑过渡,改造难度和成本较低,改造周期较短,改造难度和成本较低,改造周期较短,在数据中心领域应用更多,目前在液冷数据中心占据主流地位。在数据中心领域应用更多,目前在液冷数据中心占据主流地位。我们认为,中短期内对于老旧的存量IDC改造和新建的增量IDC,单相冷板式液冷方案是可行性较高、成本相对较低且能满足政策 PUE 要求的主流方案,随着技术的不断成熟,长期来看,浸没式液冷的优势将逐渐凸显。表表7:各液冷方式对比,冷板式液冷是主流方案各液冷方式对比,冷板式液冷是主流方案 液冷方案液冷方案 非接触式液冷非接触式液冷 接触式液冷接触式液冷 冷板式 热管式 浸没式 喷淋式 相变浸没式 单相浸

88、没式 投资成本 初始投资中等,运维成本低 初始投资中等,运维成本低 初始投资及运维成本高 初始投资及运维成本高 结构改造及液体消耗成本大,液冷系统初始投资成本低 PUE 1.1-1.2 1.15-1.25 1.05 1.09 冷却塔冷却塔,但采用自然冷却系统均存在一定限制。但采用自然冷却系统均存在一定限制。冷却塔由于需要消耗大量的水,适用于水源充足地区;干冷器则适用于温度较低冷却塔由于需要消耗大量的水,适用于水源充足地区;干冷器则适用于温度较低、较为缺水较为缺水的区域。的区域。表表9:不同一次侧进水温度下的冷源配置不同一次侧进水温度下的冷源配置 一侧进水温度一侧进水温度 冷源配置冷源配置 17

89、 冷水机组,辅以水经济器(板式换热器)27 32 冷却塔或干冷器,辅以冷水机组或区域热回收系统 40 45 冷却塔或干冷器,辅以区域热回收系统 45 资料来源:ODCC冷板液冷标准化及技术优化白皮书、开源证券研究所 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 29/50 3.2、二次侧二次侧 3.2.1、冷板式液冷基础设施冷板式液冷基础设施(一)冷板组件(一)冷板组件 冷板是带有内部流体通道并允许冷却工质流过的热交换器或散热器。冷板安装在需要冷却却的电子元器件热表面上,将元器件产生的热量通过液体冷却工质传递到冷量分配单元的板式热交换器。冷板组件由冷板、配套管路、扣具、转接

90、头、快速接头 QDC、漏液检测装置等主要零部件构成。(1)冷板:以工艺冷媒为媒介,实现热量交换的紧凑型换热部件,与设备配套管路、QDC、CDU、RCM、LCM 等形成二次侧冷却环路,并最终将处理器热量传递至室外,原材料主要为铜金属,部分扣具为铝制。(2)设备配套管路:用于冷板与冷板或液体快速接头之间互连流通的部件。(3)扣具:为冷板与处理器贴合提供锁紧力的专用锁紧零部件。(4)转接头:在冷板系统中起到连接作用的零部件。图图30:冷板组件构成冷板组件构成示意图示意图 图图31:冷板实物图冷板实物图 资料来源:ODCC冷板液冷标准化及技术优化白皮书 资料来源:ODCC冷板液冷标准化及技术优化白皮书

91、(二)快速接头(二)快速接头(QDC)快速接头在服务器的冷板组件和 RCM,或 RCM 和 LCM 使用连接时使用,根据上述安装位置的不同,分为自锁式快速接头和球阀式快速接头。快速接头应具备可实现的快速连接和断开功能,方便带压连接和断开。当插头和插座连接时,流体接通;当插头和插座断开时,弹簧自复位确保供液中断,工艺冷媒不会溢出到系统外,以避免频繁工艺冷媒补液,污染甚至危及服务器。图图32:自锁式快速接头自锁式快速接头示意图示意图 图图33:冷板服务器组件与冷板服务器组件与 RCM 之间用快速接头连接之间用快速接头连接 资料来源:ODCC冷板液冷标准化及技术优化白皮书 资料来源:ODCC冷板液冷

92、标准化及技术优化白皮书 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 30/50(三)机柜工艺冷媒供回歧管(三)机柜工艺冷媒供回歧管(RCM)机柜工艺冷媒供回歧管(RCM),又称分集液器(Manifold)或竖直分液单元(VCDU),安装于液冷机柜内部,具备分液、集液和排气等功能的部件。RCM 一般由排气阀、分支管路和主管路等组成。分支管路的软管端部安装有 QDC,实现与服务器内冷板组件的连接。主管路接口位于上端或下端,是工艺冷媒供回液冷机柜的接口,与 LCM 通过软管连接。图图34:机柜工艺冷媒供回歧管(机柜工艺冷媒供回歧管(RCM)图图35:RCM 置于机柜背部置于机柜

93、背部 资料来源:ODCC冷板液冷标准化及技术优化白皮书 资料来源:互联网数据中心产业技术创新战略联盟绿色节能液冷数据中心白皮书(四)环路工艺冷媒供回歧管(四)环路工艺冷媒供回歧管(LCM)环路工艺冷媒供回歧管(LCM)将从 CDU 冷却的工艺冷媒,通过分支软管输送到 RCM 处,一般安装于数据中心地板底部,有时也会安装于机柜顶部,具备分液、集液和排气等功能。LCM 一般由排气阀、分支管路、主管路、阀件等组成。图图36:环形液冷管路环形液冷管路示意图示意图 图图37:LCM 用于连接用于连接 CDU 和机柜和机柜 资料来源:英维克官网 资料来源:ODCC冷板液冷标准化及技术优化白皮书(五)(五)

94、冷量分配单元冷量分配单元(CDU)冷量分配单元(CDU)是一种用于在液体回路之间进行热交换的装置。CDU 将进入服务器冷板组件的工艺冷媒与冷源侧的冷却水进行隔离,并将冷却后的工艺冷媒分配给不同服务器的冷板的冷却设备。CDU 组件繁多,最主要的部件为液-液换热的板式换热器,其次是用于工艺冷媒循环输送的二次侧泵,再次是配置工艺冷媒系统(即二次侧)所需的调节、定压、补水、排气等装置,包括电动球阀、定压罐、补水箱/袋、自动排气阀等,然后是冷却水系统(即一次侧)所需的装置,监测相关行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 31/50 温度、压力、流量、漏液的传感器,以及相关的电器

95、控制器件。图图38:CDU 内部构成示意图内部构成示意图 资料来源:互联网数据中心产业技术创新战略联盟绿色节能液冷数据中心白皮书 CDU 根据布置方式不同,分为机架式根据布置方式不同,分为机架式(分布式)(分布式)CDU、柜式柜式(集中式)(集中式)CDU、平台式(集中式)平台式(集中式)CDU,对于大型或超大型对于大型或超大型 IDC 一般采用柜式一般采用柜式 CDU 或平台式或平台式 CDU,以减少设备维护量以减少设备维护量。图图39:分布式分布式 CDU 放置于机柜下方放置于机柜下方 图图40:集中式集中式 CDU 单独陈列单独陈列 资料来源:ODCC冷板液冷服务器设计白皮书 资料来源:

96、ODCC冷板液冷服务器设计白皮书 表表10:集中式集中式 CDU 与分布式与分布式 CDU 对比对比,大型数据中心以集中式,大型数据中心以集中式 CDU 为主为主 CDU 类型类型 集中式集中式 CDU 分布式分布式 CDU 布局 CDU 布置在机柜外,每列机柜布置两个 CDU,一主一备 CDU 布置在机柜内部,每个机柜对应一个 CDU 组成 液冷二次侧冷却环路主要由 CDU(内循环通道部分)、液冷 IT 设备、IT 设备柜内配流管路组件、二次冷却管网系统等组成 液冷二次侧冷却环路主要由 CDU(内循环通道部分)、液冷 IT设备、IT 设备柜内配流管路组件系统等组成 系统管路连接 较多,需二次

97、侧管路部署,需考虑二次侧流量分配 较少,免二次管路部署;支持不同阻力特性/功率等级机柜混配,无流量浪费 空间利用率 较低,占用机房空间 较高,集成于机柜内部 可维护性 相对简单,出现故障可集中诊断和维护,但影响范围大;二次侧冷却液循环路径长,需关注冷却液洁净度 相对复杂,需多点诊断和维护,但故障影响范围局限在单个机柜内;冷却液尽在机柜侧循环,路径短,有利于保持洁净度。适用场景 对于大型、超大型数据中心,机柜总数多,应用集中式 CDU 可减少设备维护量,增加管路维护量。适用于业务需求明确的场景,机柜间无明显制冷量差异。对中小型数据中心,机柜数量适中,应用分布式 CDU 也不会增加过多维护负担,同

98、时具有高度集成、系统简洁等特 点。可随业务需求分批上线,可适应不同机柜功率场景,易于机柜功耗匹配 技术成熟度 较高,起步较早,应用相对较多 较高,起步较晚,正在创新应用 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 32/50 制冷量 机柜式:200-600KW 机架式 风-液型:6-20KW 平台式:1200-3500KW 液-液型:20-60KW 资料来源:三大电信运营商电信运营商液冷技术白皮书、中兴通讯中兴通讯液冷技术白皮书、开源证券研究所(六)工艺冷媒(六)工艺冷媒 工艺冷媒又称“冷却介质”、“冷却液”等,是液冷系统中用于实现热量交换的冷却液体,在二次侧循环系统中流

99、动,冷板式液冷常用的工质按照是否水基进行划分。选择时要主要考量与二次侧液冷模组中所有浸润材料的相容性、可靠性、危害性、成本优劣等。冷板液冷的工艺冷媒主要选择纯水液和配方液,纯水液主要为去离子水,配方液主要为乙二醇或丙二醇溶液。对于配方液,截至 2023 年 2 月,华为、曙光以 25%乙二醇溶液为主,浪潮、新华三以 25%丙二醇溶液为主,此外,工艺冷媒需要添加抑菌剂和缓释剂,不同工艺冷媒之间不可以混用。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 33/50 3.2.2、浸没式液冷基础设施浸没式液冷基础设施(一)浸没腔体(一)浸没腔体(TANK)浸没腔体(TANK)是承载数

100、据中心电子信息设备和冷却液,实现电子信息设备冷却的容器。浸没式液冷 TANK 作用类比于风冷系统的机柜。冷却液通常采用下供上回的方式将冷却液输送至 TANK 内以带走服务器产生的热量。Tank 底部宜采用多孔板加填充块设计,需要注意保证进入各节点的液体流量均匀。填充块固定在 Tank两侧和下部,形成 Tank 内液体流道,同时起到减少液体使用量的作用。图图41:TANK+CDU+液冷服务器液冷服务器,二拖一结构,二拖一结构 图图42:单相浸没式单相浸没式 TANK 示意图示意图 资料来源:ODCC浸没式液冷数据中心运维车白皮书 资料来源:三大电信运营商电信运营商液冷技术白皮书(二)液冷换热模块

101、(二)液冷换热模块(CDM)液冷换热模块简称“CDM”,用于二次侧气态冷却介质与一次侧冷源进行换热,是对液冷 IT 设备提供冷量分配与智能管理的模块。CDM 是为解决相变浸没式液冷服务器散热问题所推出的一体化散热模块,具有超低能耗、高制冷效率、低噪声、高可靠性等特点。(三)浸没式液冷冷却介质(三)浸没式液冷冷却介质 浸没式液冷冷却介质与服务器直接接触,应具有良好的化学稳定性和良好的热稳定性,同时应具备良好的绝缘性和电气特性,材料兼容性优,且安全、环保、无毒。单相浸没式液冷冷却介质还应具备较高的沸点;相变浸没式液冷冷却介质还应具备较低的沸点和较高的汽化潜热。碳氟化合物是满足以上条件的最佳材料,也

102、是单相和相变浸没式液冷核心技术之一。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 34/50 3.3、液冷液冷 IT 设备设备 (一)机架式冷板液冷服务器(一)机架式冷板液冷服务器 机架式液冷服务器在传统整机结构下将将 CPU、GPU、DIMM、VR 等发热量较等发热量较大的部件散热从风冷升级到液冷,大的部件散热从风冷升级到液冷,其余部位仍采用传统风冷散热,以提高服务器的其余部位仍采用传统风冷散热,以提高服务器的散热性能,并且降低风扇能耗及噪声,服务器整体改动较小,散热性能,并且降低风扇能耗及噪声,服务器整体改动较小,IT 设备维护较为简单。设备维护较为简单。从布局上与传统

103、风冷架构类似,可做到根据散热需求模块化更好的方式,通过液冷进一步提高热交换能力。目前,华为、曙光、中兴、新华三、浪潮、超聚变等服务器厂商均已推出冷板式液冷服务器,生态较为成熟,支持厂家较多,现阶段冷板式液冷无法解决服务器全部散热等问题,后续有望向风液融合或全液冷方向演进。(1)对于传统 CPU 服务器,两个 CPU 冷板通过波纹管串联的方式连接在一起,并分别安装在两颗 CPU 上,液体从 CPU1 冷板进入流经两个冷板内部散热结构从CPU0 冷板流出,并带走两 CPU 的热量,达到散热效果。图图43:机架式机架式 CPU 冷板冷板液冷方案液冷方案 图图44:风液复合半液式服务器背部风液复合半液

104、式服务器背部 资料来源:互联网数据中心产业技术创新战略联盟绿色节能液冷数据中心白皮书 资料来源:互联网数据中心产业技术创新战略联盟绿色节能液冷数据中心白皮书(2)对于 AI 服务器,CPU 和 GPU 均采用冷板式液冷方案进行散热。两个 CPU冷板通过波纹管串联的方式连接,并与 8 个 GPU 冷板并联,冷却液由总进液口进入分液器,被分液器均匀分至 CPU 和 GPU 中,均匀流至每块冷板内部流道中,通过导热和对流吸收 CPU 和 GPU 产生的热量,最后通过分液器和总出液口流至系统外。图图45:宁畅宁畅 A800 冷板式液冷服务器冷板式液冷服务器 X660 G45 LP 图图46:NVIDI

105、A 液冷液冷 A100 示意图示意图 资料来源:ODCCAI 服务器白皮书 资料来源:英伟达官网(二)浸没式液冷服务器(二)浸没式液冷服务器 浸没式液冷服务器完全浸没在冷却液中,不能有风扇等转动部件,包括系统风扇以及 PSU 等部件上的风扇;还需重点考虑重点考虑部件兼容性部件兼容性,确认部件与冷却液的兼容情况;散热的设计也需要做出相应的优化,如将导风罩替换为填充块,机箱开孔优行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 35/50 化等。浸没式液冷服务器主要存在冷却液物性要求高、服务器定制化程度高、与现有基础设施体系不兼容等问题,生态还需进一步完善。其中,相变式液冷可满足高

106、发热原件对散热的极端需求,允许芯片超频运行,性能约可提升 10-30%,目前多应用于超算领域。图图47:浸没式浸没式双路刀片服务器双路刀片服务器示意图示意图 图图48:曙光曙光浸没式液冷服务器浸没式液冷服务器“1 拖拖 2”单元单元结构结构 资料来源:互联网数据中心产业技术创新战略联盟绿色节能液冷数据中心白皮书 资料来源:互联网数据中心产业技术创新战略联盟绿色节能液冷数据中心白皮书(三)液冷交换机(三)液冷交换机 交换机是实现服务器之间高速互联必不可少的设备之一。在风液混合冷板式液冷服务器组网中,可配套冷板式液冷交换机或仍采用传统风冷式交换机;在浸没式液冷服务器组网中,部分或全部交换机需配套浸

107、没式液冷交换机,并搭配使用液冷电源和液冷光模块。图图49:两种浸没式液冷部署方案两种浸没式液冷部署方案 图图50:浸没式交换机置于浸没式交换机置于 Tank 中中 资料来源:锐捷网络官网 资料来源:锐捷网络官网 图图51:液冷电源与液冷光模块液冷电源与液冷光模块示意图示意图 图图52:锐捷浸没式液冷交换机锐捷浸没式液冷交换机示意图示意图 资料来源:锐捷网络官网 资料来源:锐捷网络官网 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 36/50 4、行业参与者众多,“技术、客户认证、运维”构成核心竞争行业参与者众多,“技术、客户认证、运维”构成核心竞争壁垒壁垒 4.1、液冷产业

108、、液冷产业或将迎来高速增长期或将迎来高速增长期,众多公司积极布局,众多公司积极布局 液冷产业链中公司包括液冷产业链中公司包括 IT 设备商、温控设备商、互联网厂商等。设备商、温控设备商、互联网厂商等。据赛迪顾问发布的2023 中国液冷应用市场研究报告,2022 年,我国液冷数据中心市场规模已达 68.2 亿元,年均增速保持 25%,2023 年上半年市场规模已达 50.2 亿元,正进入快速发展关键期。图图53:中国液冷数据中心基础设施部署规模持续增长中国液冷数据中心基础设施部署规模持续增长(MW)图图54:中国液冷数据中心市场规模持续增长(亿元)中国液冷数据中心市场规模持续增长(亿元)数据来源

109、:赛迪顾问、开源证券研究所 数据来源:赛迪顾问、开源证券研究所 液冷发展进入快车道,液冷服务器市场规模高速增长。液冷发展进入快车道,液冷服务器市场规模高速增长。据赛迪顾问发布的 2023中国液冷应用市场研究报告显示,2020-2022 年冷板路线保持 90%以上的市占率,浸没和喷淋的市占率之和约为 10%。据 IDC 数据显示,2022 年中国服务器市场规模为 273.4 亿美元,同比增长 9.1%;2022 年中国液冷服务器市场规模为 10.1 亿美元,同比增长 189.9%,据我们测算液冷服务器渗透率约为 3.7%;2023 年上半年中国液冷服务器市场规模达到 6.6 亿美元,同比增长 2

110、83.3%,IDC 预计 2023 年全年将达到15.1 亿美元,实现高速增长,2022-2027 年中国液冷服务器市场年复合增长率将达到54.7%,2027 年市场规模将达到 89 亿美元,液冷渗透率持续提升。液冷服务器目前仍以冷板式为主,互联网行业为需求主力军。液冷服务器目前仍以冷板式为主,互联网行业为需求主力军。据 IDC 数据,2023年上半年冷板式服务器出货量占 90%,当期液冷以冷板方案为主,主要是出于传统数据中心对原有基础设施的改造成本和难度的考虑,以及当前冷板式方案成熟度较高,商用基础较好。下游需求方面,2023 上半年互联网厂商是需求主力军,液冷服务器上半年出货量中 54%是

111、由互联网企业购置,并有望在未来几年中持续加大液冷服务器的采购力度;政府、公共事业和教育占据次要市场份额;电信、金融、服务等行业的部署量也有稳健提升。随着人工智能的高速发展和相互竞争,CPU+GPU 的异构计算服务器由于散热需求强烈,也开始逐步采用液冷制冷方式,我们认为 AIGC或将加速液冷数据中心的渗透率。从服务器厂商份额来看,2023 年上半年浪潮信息市占率第一,其次为宁畅和超聚变,CR3 约为 70%左右。02040608002020202120222023H06070802020202120222023H1行业深度报告行业深度报告 请务必参阅正

112、文后面的信息披露和法律声明 37/50 图图55:中国液冷服务器市场规模中国液冷服务器市场规模有望有望持续增长(亿美元)持续增长(亿美元)图图56:2023H1 浪潮、宁畅液冷服务器市场份额较高浪潮、宁畅液冷服务器市场份额较高 数据来源:IDC 数据来源:IDC 我们认为,对于服务器内部,液冷系统部署关键是液冷零部件(冷板式:液冷板、管路、QDC 等;浸没式:冷却液等)与服务器的适配,IT 设备商和温控设备商需要进行产品适配及耦合,具有紧密合作关系;对于服务器外部,部分服务器厂商联合温控设备商提供一体化解决方案参与液冷基础设施建设,与其他温控设备商有一定竞争关系。图图57:液冷与风冷交付方式和

113、竞争关系的区别液冷与风冷交付方式和竞争关系的区别 资料来源:开源证券研究所 海外液冷服务器公司主要有戴尔、惠普、思科、超微电脑等,浸没式液冷市场的主要公司有 GRC、LiquidStack、Midas 等;冷板式液冷市场主要公司有 CoolIT Systems、Asetek、Motivair 等,目前主要厂商在液冷技术方面还处于实验或初步应用阶段,市场并未形成绝对龙头。对于国内液冷服务器市场,浪潮、宁畅和超聚变市场份额暂时领先,紫光股份、中兴通讯也相继入局发布液冷服务器,据 IDC 数据,2023 年上半年浪潮信息液冷服务器市占率第一,其次为宁畅和超聚变。此外,紫光股份、锐捷网络也推出了配套的

114、液冷交换机产品。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 38/50 国内液冷基础设施提供商国内液冷基础设施提供商众多众多,截至截至 2023 年底,英维克、年底,英维克、曙光数创、高澜股份曙光数创、高澜股份、申菱环境申菱环境、同飞股份、同飞股份等公司在冷板和浸没式液冷均有布局等公司在冷板和浸没式液冷均有布局。其中,曙光数创、云酷其中,曙光数创、云酷智能、绿色云图等企业智能、绿色云图等企业深耕深耕于浸没式液冷领域,于浸没式液冷领域,英维克英维克最早最早于于 2019 年年提出提出 XGlacier服务器服务器液冷解决方案,液冷解决方案,此外,此外,高澜股份高澜股份、申菱

115、环境、同飞股份、申菱环境、同飞股份等企业在温控领域深等企业在温控领域深耕多年,耕多年,也逐渐涉足也逐渐涉足液冷领域:液冷领域:(1)液冷全链条液冷解决方案提供商:英维克;)液冷全链条液冷解决方案提供商:英维克;(2)服务器冷板:英维克()服务器冷板:英维克(CPU/GPU)、飞荣达、高澜股份;)、飞荣达、高澜股份;(3)液冷连接器)液冷连接器 QDC:英维克、中航光电、同飞股份;英维克、中航光电、同飞股份;(4)冷板式)冷板式/浸没式液冷浸没式液冷 CDU:英维克、曙光数创、申菱环境、高澜股份:英维克、曙光数创、申菱环境、高澜股份、科、科华数据、同飞股份、依米康;华数据、同飞股份、依米康;(5

116、)Tank:英维克、曙光数创、申菱环境、高澜股份、同飞股份、依米康;:英维克、曙光数创、申菱环境、高澜股份、同飞股份、依米康;(6)浸没冷却液:巨化股份;)浸没冷却液:巨化股份;(7)一次侧冷源:英维克、曙光数创、申菱环境、高澜股份、同飞股份、佳力)一次侧冷源:英维克、曙光数创、申菱环境、高澜股份、同飞股份、佳力图、依米康;图、依米康;(8)液冷服务器:中兴通讯、紫光股份、浪潮信息、联想、中科曙光;)液冷服务器:中兴通讯、紫光股份、浪潮信息、联想、中科曙光;(9)液冷交换机:紫光股份、锐捷网络;液冷交换机:紫光股份、锐捷网络;(10)冷板冷板液冷液冷 IDC:宝信软件、润泽科技、光环新网、科华

117、数据、奥飞数据;:宝信软件、润泽科技、光环新网、科华数据、奥飞数据;(11)浸没液冷)浸没液冷 IDC:网宿科技、阿里巴巴。:网宿科技、阿里巴巴。表表11:各公司液冷解决方案各公司液冷解决方案推出时间推出时间 公司名称公司名称 液冷路径液冷路径 液冷解决方案液冷解决方案 推出时间推出时间 英维克 冷板式/浸没式 XGlacier 服务器液冷解决方案 2019 年 全链条液冷解决方案 2021 年 Coolinside 全链条液冷解决方案 2022 年 曙光数创 冷板式/浸没式 C7000 系列冷板式液冷产品 2018 年 C8000 系列相变浸没液冷产品 2019 年 申菱环境 冷板式/浸没式

118、 天枢系列 SKY-ACMECOL 液冷温控系统 2019 年 高澜股份 冷板式/浸没式 冷板式液冷服务器热管理解决方案/浸没式液冷服务器热管理解决方案 2021 年 同飞股份 冷板式/浸没式 同飞股份板式液冷及浸没式液冷全链条解决方案 2023 年 佳力图 冷板式/浸没式 研发布局中 依米康 冷板式/浸没式 祥云系列冷板型和浸没型液冷解决方案 2023 年 科华数据 冷板式/浸没式 Wise Cooling 液冷解决方案 2023 年 浪潮信息 冷板式/浸没式 ALL in 液冷,发布全栈冷板式液冷产品 2022 年 中兴通讯 冷板式(浸没式在研)ICT 液冷一体化解决方案 2023 年 紫

119、光股份 冷板式/浸没式 ALL in GREEN,推出全栈液冷解决方案 2023 年 资料来源:各公司官网、公司公告、开源证券研究所 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 39/50 4.2、行业行业壁垒:技术、客户认证、运维等综合能力的竞争壁垒:技术、客户认证、运维等综合能力的竞争 我们认为我们认为液冷行业存在较高液冷行业存在较高技术壁垒技术壁垒、客户认证壁垒客户认证壁垒和运维壁垒和运维壁垒。(1)技术壁垒:)技术壁垒:液冷数据中心基础设施产品的研发和制造涉及冷却技术、制冷系统设计及仿真技术、温湿度解耦控制算法等多项技术领域,覆盖多学科和多领域。液冷设备配套商除了

120、提供液冷配套产品外,还需要掌握液体压力、流量、温度等控制算法,一旦设备出现液体冷却介质泄漏等情况,会对IT设备和环境带来安全风险,并造成客户经济损失,因此我们认为液冷数据中心基础设施行业具有较高的技术门槛。(2)客户认证壁垒客户认证壁垒:出于安全性、可靠性、稳定性等考虑,企业客户在选择液冷数据中心基础设施供应商时通常需要进行严格的资质验证。通常而言,企业客户,尤其是金融、医药等机构出于数据安全、保密等要求,对液冷数据中心基础设施解决方案供应商挑选非常严格,需要对企业产品质量水平、项目经验、技术研发能力进行综合考察,因此认证过程复杂且耗时较长。此外,由于更换液冷数据中心基础设施供应商会对产品的稳

121、定性形成风险,客户在与液冷数据中心基础设施供应商建立生产配套关系后,倾向于维持与现有技术供应商的合作,不会轻易更换主要供应商。先进入者一旦建立起自身客户资源、形成先发优势,新进入企业将很难在短期先进入者一旦建立起自身客户资源、形成先发优势,新进入企业将很难在短期内争夺市场份额、改变行业现有格局内争夺市场份额、改变行业现有格局,因此我们认为液冷数据中心基础设施行业具有较高的客户认证门槛。(3)运维壁垒:)运维壁垒:液冷不同于风冷,容错性较低,任何一个部件发生损坏或者需要维修更换,或将对系统整体产生影响。液冷机房长时间的运行下,冷却介质可能会发生化学变质,出现腐蚀管路、堵塞管路、微生物滋生等情况,

122、最终影响系统散热性能或导致漏液,造成客户损失。冷却介质循环管路、歧管、冷却塔和泵的运维难度相对较大,需要定期检测,要求供应商具备较强的运维能力,具有一定运维门槛。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 40/50 5、液冷相关企业介绍液冷相关企业介绍 5.1、英维克英维克 英维克是业内领先的精密温控节能解决方案和产品提供商,致力于为云计算数据中心、算力设备、通信网络、电力电网、储能系统、电源转换等领域提供设备散热解决方案,为客车、重卡、冷藏车、地铁等车辆提供相关车用的空调、冷机等产品及服务,并为人居健康空气环境推出系列的空气环境机。在算力设备以及数据中心机房的高热密度

123、趋势和高能效散热要求的双重推动下,液冷技术加速导入。公司对冷板、浸没等液冷技术平台长期投入,2022 年 8 月 Intel与英维克等 20 家合作伙伴联合发布了绿色数据中心创新实践:冷板液冷系统设计参考 白皮书。公司已推出针对算力设备和数据中心的 Coolinside 液冷机柜及全链条液冷解决方案,相关产品涉及冷源、管路连接、CDU 分配、快换接头、Manifold、冷板等已规模商用,“端到端、全链条”的平台化布局已成为公司在液冷业务领域的重要核心竞争优势。图图58:英维克英维克 CPU 冷板冷板 图图59:英维克英维克 GPU 冷板冷板 资料来源:英维克官网 资料来源:英维克官网 图图60

124、:英维克英维克 Coolinside 全链条液冷解决方案拆解图全链条液冷解决方案拆解图 图图61:英维克英维克集中集中式式浸没液冷浸没液冷 CDU+Tank 一拖一拖多多方案方案 资料来源:英维克官网 资料来源:英维克官网 5.2、中兴通讯中兴通讯 作为全球领先的综合性通信制造业上市公司和全球通信解决方案提供商之一,中兴通讯一直致力于将液冷技术应用到服务器和数据中心领域,随着对技术不断的积累和创新,已完成单板级、插箱级、机柜级、机房级四个不同维度的液冷技术攻行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 41/50 关,并推出系列化液冷服务器和 ICT 液冷一体化解决方案,已

125、具备规模化商用部署的条件,助力客户建设低碳绿色数据中心。液冷技术是中兴通讯打造低 PUE、助力绿色数据中心的关键路径之一。中兴通讯已推出全液冷系统解决方案,由室外冷源、液冷服务器机柜、CDU(Coolant Distribution Unit)、EDU(External cooling system Distribution Unit)四部分组成。图图62:中兴通讯液冷系统中兴通讯液冷系统由由服务器机柜、服务器机柜、CDU、EDU、冷源组成、冷源组成 资料来源:中兴通讯官网 中兴通讯自研高性能液冷服务器采用双路Intel XEON高性能CPU、32根内存条,可应用于大规模数据计算与存储场景,关

126、键部件包含:液冷工质、液冷板、流体连接器、液冷管路以及漏液检测装置等。表表12:中兴通讯液冷服务器关键部件介绍中兴通讯液冷服务器关键部件介绍 液冷服务器关键部件液冷服务器关键部件 产品介绍与亮点产品介绍与亮点 液冷工质 二次侧液冷工质是 IT 液冷方案设计中首先需要确定的部分,直接影响液冷系统的设计方案、工作环境、可靠性、维护方式等。选型过程中需要考虑工质热物性(密度、粘度、比容、导热系数等)、兼容性(金属、非金属)、成本和可获取性等多种因素的综合影响。中兴通讯液冷服务器选用了水基溶液,如去离子水、乙二醇水溶液、丙二醇水溶液等,并配合具有一定缓蚀、杀菌、阻垢功能的化学药剂使用,在保证可靠性的同

127、时,兼具高性价比。液冷板 服务器液冷板设计需满足定制化和通用性,首先液冷板设计需要根据单板芯片和芯片布局进行芯片冷板和管路布局设计,具有一定的定制化特性,其次在定制化结构设计中应尽量保证内部零件的通用性,如芯片冷板内部流道、外形尺寸,以及液冷板进出口组件结构尽可能一致,以降低成本。液冷板的选型还需要结合实际功耗、工作压力、流速等条件,综合考虑冷板材质、工艺等。同时,为了提升节能效果,IT 设备应尽可能提高冷板板式液冷占比。中兴通讯自研液冷服务器支持不同的液冷解决方案,如 CPU 液冷、CPU+内存条液冷,以及 CPU+内存条散热+VR 液冷,冷板液冷占比最高可达 80%以上,满足不同的制冷需求

128、。流体连接器 流体连接器主要用于液冷散热系统环路中各部件间的快速连接和断开。选型要点包括工作流量、温度、压力、介质、壳体材料、流阻特性、颜色标识、安装方式、接口形式等多方面因素。现阶段,中兴通讯自研液冷服务器产品选择了业界主流的 UQD(Universal Quick Disconnect)系列流体连接器,促进行业标准化进程,满足最终用户兼容替代需求。分液器 分液器安装在 IT 设备液冷机柜内,起到流量分配作用,将系统的循环工质分配到各个 IT 设备节点,在液冷板内换热后将热量带出到主水管路。其设计选型需要考虑流量分配一致性,并根据结构空间、充注量和机柜总重量综合考虑分液器的体积。液冷软管 液

129、冷管路是循环工质流通通路,参与整个液冷系统的流量-流阻分配,同时为外接液冷设备提供简便的转接接口。液冷管路选型需要考虑材料兼容性、流速、管路布置、安装方式、流量分配设计以及可靠性方面的要求。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 42/50 液冷服务器关键部件液冷服务器关键部件 产品介绍与亮点产品介绍与亮点 漏液检测装置 漏液检测采用节点级和整柜级智能监控漏液检测技术,及时告警,快速处理。主板提供了液冷方案漏液侦测接口,可快速识别泄漏情况,提供漏液检测秒级精细化告警,并支持应急下电动作。资料来源:中兴通讯中兴通讯液冷技术白皮书、开源证券研究所 5.3、紫光股份紫光股份

130、 紫光股份作为全球新一代云计算基础设施建设和行业智慧应用服务的领先者,提供技术领先的网络、计算、存储、云计算、安全和智能终端等全栈 ICT 基础设施及服务。公司发布了“ALL in GREEN”战略,推出全栈液冷解决方案,实现了交换机、服务器、微模块等不同产品的改造,并将液冷技术全面融入到全新的 UniServer G6 系列服务器中,打造更加节能、低碳的数字基础设施;从数据中心的规划立项到 设计实施,以及验收后的运营维护,公司提供液冷数据中心全生命周期端到端的服务,以智能温控最大程度上减少制冷、散热关键环节的能耗,可让数据中心的 PUE降至 1.1 以下。图图63:新华三液冷解决方案新华三液

131、冷解决方案 资料来源:新华三官网 5.4、曙光数创曙光数创 曙光数创是一家以数据中心高效冷却技术为核心的数据中心基础设施产品供应商,主营业务为:浸没相变液冷数据中心基础设施产品、冷板液冷数据中心基础设施产品及模块化数据中心产品的研究、开发、生产及销售,以及围绕上述产品提供系统集成和技术服务。公司专注于数据中心领域,在数据中心高效冷却的研发及服务方面积累了丰富经验,形成了数据中心高效冷却系列化的技术和产品;助力实现数据中心领域的节能降耗,降低数据中心运行成本,提升服务器的可靠性。公司的数据中心基础设施产品也包括数据中心机柜系统、供配电系统、监控系统、服务器的液冷散热部件等其它配套系统。截至 20

132、22 年 7 月 31 日,公司已取得 91 项专利和 27 项软件著作权,其中发明专利 31 项。在数据中心基础设施产品方面,公司从“冷却”和“节能”两个关键点入手,有别于行业内已经普及的传统风冷制冷产品,基于液体优秀的传热特性,提出以液冷方式,行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 43/50 从根本上变革数据中心冷却系统。公司自 2011 年即确立了冷板和浸没两个液冷技术路线,并相继研发形成了冷板液冷数据中心基础设施产品-C7000 系列和浸没相变液冷数据中心基础设施产品-C8000 系列。图图64:曙光数创冷板液冷数据中心产品拆解图曙光数创冷板液冷数据中心产品

133、拆解图 图图65:曙光数创浸没液冷数据中心基曙光数创浸没液冷数据中心基础设施产品效果图础设施产品效果图 资料来源:曙光数创招股说明书 资料来源:曙光数创招股说明书 5.5、高澜股份高澜股份 高澜股份自设立以来一直致力于电力电子装置用纯水冷却设备及控制系统的研发、设计、生产和销售,历经多年发展逐步成为电力电子行业热管理整体解决方案提供商。根据应用于不同行业和领域的电力电子装置,公司开发和销售的主要产品包括:新能源热管理产品液冷板;信息与通信(ICT)热管理产品冷板式液冷服务器热管理解决方案、浸没式液冷服务器热管理解决方案、集装箱液冷数据中心解决方案;储能电池热管理产品锂电池单柜储能液冷产品、大型

134、储能电站液冷系统、预制舱式储能液冷产品。公司的信息与通信热管理产品主要有冷板式液冷服务器热管理解决方案和浸没式液冷服务器热管理解决方案,可分别将 PUE 降至 1.2 以下和1.1 以下。图图66:高澜股份冷板式液冷服务器解决方案高澜股份冷板式液冷服务器解决方案 图图67:高澜股份浸没式液冷服务器解决方案高澜股份浸没式液冷服务器解决方案 资料来源:高澜股份官网 资料来源:高澜股份官网 5.6、申菱环境申菱环境 申菱环境主营业务围绕专业特种空调为代表的空气环境调节设备开展,集研发设计、生产制造、营销服务、集成实施、运营维护于一体,致力于为数据服务产业环境、工业工艺产研环境、专业特种应用环境、公共

135、建筑及商用环境等应用场景提行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 44/50 供专业特种空调设备、数字化的能源及人工环境整体解决方案。在数据服务板块,公司高度重视研发创新和节能降耗技术,蒸发冷却产品、DCP 相变冷却系统、液冷温控系统等高能效产品的市场接受度不断提升,实现了互联网数据中心大型液冷项目规模化的交付。图图68:天枢液冷温控系统天枢液冷温控系统 图图69:天辰相变冷却系统天辰相变冷却系统 资料来源:申菱环境官网 资料来源:申菱环境官网 5.7、同飞股份同飞股份 同飞股份是一家专业从事工业温控设备的研发、生产和销售的高新技术企业,凭借深厚的技术沉淀与精耕细作的

136、自主研发能力,成为工业温控领域整体解决方案综合服务商。公司产品涵盖液冷、空冷等多场景的工业温控解决方案,为智能装备制造、储能系统、半导体制造设备、输变电、电气传动、新能源发电、数据中心、氢能、新能源汽车等领域提供专业温控产品,并不断拓宽产业化发展之路。公司拥有四大类产品:液冷产品、工业空调、纯水冷却单元和特种换热器。图图70:同飞股份液冷同飞股份液冷 CDU 图图71:同飞股份同飞股份冷板液冷全链条解决方案冷板液冷全链条解决方案 资料来源:同飞股份官网 资料来源:同飞股份官网 5.8、佳力图佳力图 佳力图专注于数据机房等精密环境控制技术的研发,为数据机房等精密环境控 制领域提供节能、控温设备以

137、及相关节能技术服务。公司主要产品为精密空调设备、机房环境一体化产品,根据客户需求提供湿膜加湿器、精确送风机等产品,与精密空调配套使用。公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 45/50 5.9、飞荣达飞荣达 飞荣达主要从事电磁屏蔽材料及器件、热管理材料及器件、基站天线及相关器件、防护功能器件、轻量化材料及器件、功能组件等的研发、设计、生产与销售,致力成为 ICT 领域新材料及智能 制造领先企业。公司产品主要应用在网络通信、数

138、据中心(服务器)、消费电子、新能源汽车、人工智能、光伏储能、医疗及家用电器等领域。其中,热管理材料及器件包括导热界面器件、石墨片、导热石墨膜、散热模组、风扇、VC 均温板、热管、压铸件及液冷板等。图图72:飞荣达产品在服务器上的应用飞荣达产品在服务器上的应用 资料来源:飞荣达公告 5.10、依米康依米康 依米康从早期的数据中心精密空调等关键设备提供商逐渐发展为向数字基础设施全生命周期提供绿色解决方案的服务商,业务板块包括关键设备、智能工程、软件业务、智慧服务,对应数字基础设施全生命周期各个节点,从数字基础设施的顶层设计、到总包建设、温控系统等关键设备供应、再到数字基础设施运维环境监测服务。其中

139、,关键设备业务产品包括云数据中心、通信/信息机房、边缘数据中心、基站等精密环境所需的精密空调、微模块、UPS 电源、冷通道、磁悬浮冷水机组等设备。5.11、浪潮信息浪潮信息 浪潮信息是全球领先的数据中心 IT 基础架构产品、方案和服务提供商。浪潮信息将“All in 液冷”纳入公司发展战略,全栈布局液冷,发布全栈液冷产品,实现通用服务器、高密度服务器、整机柜服务器、AI 服务器四大系列全线产品均支持冷板式液冷,并提供液冷数据中心全生命周期整体解决方案。为更好的推进液冷产业化,浪潮信息还建成了亚洲最大的液冷数据中心研发生产基地,具有业界领先的液冷数据中心交付能力。浪潮信息液冷产品和解决方案已经在

140、互联网、金融、教科研等领域得到广泛应用。其中,浪潮信息与京东云联合发布天枢(ORS3000S)液冷整机柜服务器,实现散热效率提升 50%,能耗降低 40%以上,已经在京东云数据中心实现规模化部署。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 46/50 图图73:浪浪潮信息液冷产业布局潮信息液冷产业布局 资料来源:浪潮服务器公众号 行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 47/50 6、投资建议投资建议 AIGC 高速发展带动单机柜功率密度持续上升,叠加政策对 PUE 要求趋紧,液冷优势逐渐突显,随着 ICT 厂商纷纷布局液冷领域,液冷生态不断完善

141、,数据中心液冷有望加速渗透。受益标的包括:液冷全链条液冷解决方案提供商:英维克;服务器冷板:英维克(CPU/GPU)、飞荣达、高澜股份;液冷连接器 QDC:英维克、中航光电、同飞股份;冷板式/浸没式液冷 CDU:英维克、曙光数创、申菱环境、高澜股份、科华数据、同飞股份、依米康;Tank:英维克、曙光数创、申菱环境、高澜股份、同飞股份、依米康;浸没冷却液:巨化股份;一次侧冷源:英维克、曙光数创、申菱环境、高澜股份、同飞股份、佳力图、依米康;液冷服务器:中兴通讯、紫光股份、浪潮信息、联想、中科曙光;液冷交换机:紫光股份、锐捷网络;液冷 IDC 供应商:宝信软件、润泽科技、光环新网、科华数据、奥飞数

142、据;浸没液冷 IDC:网宿科技、阿里巴巴。表表13:受益标的估值表受益标的估值表 公司名称公司名称 证券代码证券代码 股价(元)股价(元)市值(亿元)市值(亿元)EPS PE 评级评级 2023E 2024E 2025E 2023E 2024E 2025E 英维克 002837.SZ 33.15 188.45 0.64 0.89 1.24 51.42 37.31 26.77 买入 曙光数创 872808.BJ 54.08 108.16 0.52 0.62 0.75 103.46 87.30 71.91 增持 申菱环境 301018.SZ 28.65 76.22 0.86 1.14 1.47 3

143、3.25 25.06 19.43 未评级 同飞股份 300990.SZ 42.20 71.10 1.30 1.98 2.91 32.48 21.27 14.49 买入 佳力图 603912.SH 8.40 45.51 0.18 0.19 0.23 46.95 45.28 36.73 增持 飞荣达 300602.SZ 17.55 101.45 0.37 0.73 1.01 47.15 23.93 17.35 未评级 浪潮信息 000977.SZ 41.73 614.32 1.78 2.20 2.67 23.43 18.93 15.66 买入 中兴通讯 000063.SZ 30.00 1434.9

144、8 1.96 2.15 2.37 15.31 13.95 12.66 买入 紫光股份 000938.SZ 24.75 707.87 0.81 0.98 1.17 30.38 25.21 21.08 未评级 宝信软件 600845.SH 43.73 1051.00 1.08 1.36 1.78 40.49 32.15 24.57 买入 润泽科技 300442.SZ 25.03 430.66 1.01 1.32 1.93 24.84 18.94 12.95 未评级 科华数据 002335.SZ 29.05 134.09 1.49 2.11 2.86 19.55 13.76 10.15 买入 光环新

145、网 300383.SZ 9.99 179.58 0.29 0.42 0.54 34.51 24.00 18.55 增持 奥飞数据 300738.SZ 10.19 97.17 0.21 0.29 0.39 48.76 35.52 25.94 未评级 网宿科技 300017.SZ 10.11 246.40 0.16 0.22 0.27 64.56 46.57 37.51 增持 资料来源:Wind、开源证券研究所,股价为 2024 年 3 月 11 日收盘价(英维克、曙光数创、同飞股份、中兴通讯、宝信软件、浪潮信息、科华数据为开源证券研究所预测,其余为 Wind 一致预期)行业深度报告行业深度报告

146、请务必参阅正文后面的信息披露和法律声明 48/50 7、风险提示风险提示(1)国家政策变动风险国家政策变动风险 国家对数据中心 PUE 指标要求日益趋严,液冷散热相比风冷可满足更低 PUE要求,若政策对 PUE 要求放宽,会影响到液冷数据中心的行业渗透速度。(2)行业竞争加剧风险行业竞争加剧风险 目前液冷产业链产品接口标准尚不统一,产业链标准化程度低。随着产业链生态日渐完善,逐渐形成统一标准,行业竞争对手逐步开展液冷技术与产品的研发和应用,可能会加剧行业市场竞争水平。(3)数据中心发展不及预期风险数据中心发展不及预期风险 IDC 行业为重资产行业,建设周期长、流程多,从客观因素来看,建设进度主

147、要受到能耗、电力等政策审批因素的影响,而上架速度在一定程度上受到下游客户业务发展情况的影响。若下游客户业务发展短期受阻,会影响到 IDC 机房的建设、交付和上架进度,进而影响液冷数据中心配套设施装机量。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 49/50 特别特别声明声明 证券期货投资者适当性管理办法、证券经营机构投资者适当性管理实施指引(试行)已于2017年7月1日起正式实施。根据上述规定,开源证券评定此研报的风险等级为R3(中风险),因此通过公共平台推送的研报其适用的投资者类别仅限定为专业投资者及风险承受能力为C3、C4、C5的普通投资者。若您并非专业投资者及风险承

148、受能力为C3、C4、C5的普通投资者,请取消阅读,请勿收藏、接收或使用本研报中的任何信息。因此受限于访问权限的设置,若给您造成不便,烦请见谅!感谢您给予的理解与配合。分析师承诺分析师承诺 负责准备本报告以及撰写本报告的所有研究分析师或工作人员在此保证,本研究报告中关于任何发行商或证券所发表的观点均如实反映分析人员的个人观点。负责准备本报告的分析师获取报酬的评判因素包括研究的质量和准确性、客户的反馈、竞争性因素以及开源证券股份有限公司的整体收益。所有研究分析师或工作人员保证他们报酬的任何一部分不曾与,不与,也将不会与本报告中具体的推荐意见或观点有直接或间接的联系。股票投资评级说明股票投资评级说明

149、 评级评级 说明说明 证券评级证券评级 买入(Buy)预计相对强于市场表现 20%以上;增持(outperform)预计相对强于市场表现 5%20%;中性(Neutral)预计相对市场表现在5%5%之间波动;减持(underperform)预计相对弱于市场表现 5%以下。行业评级行业评级 看好(overweight)预计行业超越整体市场表现;中性(Neutral)预计行业与整体市场表现基本持平;看淡(underperform)预计行业弱于整体市场表现。备注:评级标准为以报告日后的 612 个月内,证券相对于市场基准指数的涨跌幅表现,其中 A 股基准指数为沪深 300 指数、港股基准指数为恒生指

150、数、新三板基准指数为三板成指(针对协议转让标的)或三板做市指数(针对做市转让标的)、美股基准指数为标普 500 或纳斯达克综合指数。我们在此提醒您,不同证券研究机构采用不同的评级术语及评级标准。我们采用的是相对评级体系,表示投资的相对比重建议;投资者买入或者卖出证券的决定取决于个人的实际情况,比如当前的持仓结构以及其他需要考虑的因素。投资者应阅读整篇报告,以获取比较完整的观点与信息,不应仅仅依靠投资评级来推断结论。分析、估值方法的局限性说明分析、估值方法的局限性说明 本报告所包含的分析基于各种假设,不同假设可能导致分析结果出现重大不同。本报告采用的各种估值方法及模型均有其局限性,估值结果不保证

151、所涉及证券能够在该价格交易。行业深度报告行业深度报告 请务必参阅正文后面的信息披露和法律声明 50/50 法律声明法律声明 开源证券股份有限公司是经中国证监会批准设立的证券经营机构,已具备证券投资咨询业务资格。本报告仅供开源证券股份有限公司(以下简称“本公司”)的机构或个人客户(以下简称“客户”)使用。本公司不会因接收人收到本报告而视其为客户。本报告是发送给开源证券客户的,属于商业秘密材料,只有开源证券客户才能参考或使用,如接收人并非开源证券客户,请及时退回并删除。本报告是基于本公司认为可靠的已公开信息,但本公司不保证该等信息的准确性或完整性。本报告所载的资料、工具、意见及推测只提供给客户作参

152、考之用,并非作为或被视为出售或购买证券或其他金融工具的邀请或向人做出邀请。本报告所载的资料、意见及推测仅反映本公司于发布本报告当日的判断,本报告所指的证券或投资标的的价格、价值及投资收入可能会波动。在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。客户应当考虑到本公司可能存在可能影响本报告客观性的利益冲突,不应视本报告为做出投资决策的唯一因素。本报告中所指的投资及服务可能不适合个别客户,不构成客户私人咨询建议。本公司未确保本报告充分考虑到个别客户特殊的投资目标、财务状况或需要。本公司建议客户应考虑本报告的任何意见或建议是否符合其特定状况,以及(若有必要)咨询独立投资顾问。在任何

153、情况下,本报告中的信息或所表述的意见并不构成对任何人的投资建议。在任何情况下,本公司不对任何人因使用本报告中的任何内容所引致的任何损失负任何责任。若本报告的接收人非本公司的客户,应在基于本报告做出任何投资决定或就本报告要求任何解释前咨询独立投资顾问。本报告可能附带其它网站的地址或超级链接,对于可能涉及的开源证券网站以外的地址或超级链接,开源证券不对其内容负责。本报告提供这些地址或超级链接的目的纯粹是为了客户使用方便,链接网站的内容不构成本报告的任何部分,客户需自行承担浏览这些网站的费用或风险。开源证券在法律允许的情况下可参与、投资或持有本报告涉及的证券或进行证券交易,或向本报告涉及的公司提供或

154、争取提供包括投资银行业务在内的服务或业务支持。开源证券可能与本报告涉及的公司之间存在业务关系,并无需事先或在获得业务关系后通知客户。本报告的版权归本公司所有。本公司对本报告保留一切权利。除非另有书面显示,否则本报告中的所有材料的版权均属本公司。未经本公司事先书面授权,本报告的任何部分均不得以任何方式制作任何形式的拷贝、复印件或复制品,或再次分发给任何其他人,或以任何侵犯本公司版权的其他方式使用。所有本报告中使用的商标、服务标记及标记均为本公司的商标、服务标记及标记。开开源证券源证券研究所研究所 上海上海 深圳深圳 地址:上海市浦东新区世纪大道1788号陆家嘴金控广场1号 楼10层 邮编:200120 邮箱: 地址:深圳市福田区金田路2030号卓越世纪中心1号 楼45层 邮编:518000 邮箱: 北京北京 西安西安 地址:北京市西城区西直门外大街18号金贸大厦C2座9层 邮编:100044 邮箱: 地址:西安市高新区锦业路1号都市之门B座5层 邮编:710065 邮箱:

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(通信行业深度报告:AI热浪起液冷迎来黄金时代-240311(50页).pdf)为本站 (表表) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
客服
商务合作
小程序
服务号
会员动态
会员动态 会员动态:

136**69... 升级为标准VIP   158**27...  升级为至尊VIP 

wei**n_... 升级为至尊VIP   wei**n_...  升级为至尊VIP

 153**39... 升级为至尊VIP 152**23... 升级为高级VIP 

152**23...  升级为标准VIP  wei**n_... 升级为标准VIP

姚哥 升级为至尊VIP  微**... 升级为标准VIP 

 182**73... 升级为高级VIP wei**n_... 升级为标准VIP  

138**94...  升级为标准VIP  wei**n_...  升级为至尊VIP 

A**o 升级为至尊VIP  134**12... 升级为标准VIP

 wei**n_... 升级为标准VIP  wei**n_...  升级为标准VIP

 158**01...  升级为高级VIP wei**n_... 升级为标准VIP 

133**84...  升级为高级VIP   wei**n_... 升级为标准VIP

周斌  升级为高级VIP  wei**n_... 升级为至尊VIP

182**06...   升级为高级VIP 139**04...  升级为至尊VIP

wei**n_...  升级为至尊VIP Ke**in 升级为高级VIP 

186**28... 升级为至尊VIP 139**96...  升级为高级VIP

she**nz... 升级为至尊VIP    wei**n_... 升级为高级VIP

wei**n_... 升级为高级VIP    wei**n_... 升级为标准VIP 

137**19... 升级为至尊VIP   419**13...  升级为标准VIP

183**33... 升级为至尊VIP 189**41... 升级为至尊VIP

 张友 升级为标准VIP  奈**... 升级为标准VIP 

186**99... 升级为至尊VIP 187**37...   升级为高级VIP

 135**15... 升级为高级VIP 朱炜 升级为至尊VIP 

ja**r 升级为至尊VIP   wei**n_... 升级为高级VIP

wei**n_... 升级为高级VIP 崔** 升级为至尊VIP

187**09... 升级为标准VIP 189**42... 升级为至尊VIP

 wei**n_... 升级为高级VIP   妙察 升级为标准VIP 

wei**n_...  升级为至尊VIP 137**24...  升级为高级VIP

185**85...  升级为标准VIP wei**n_...  升级为高级VIP

136**40... 升级为标准VIP  156**86...  升级为至尊VIP

 186**28...  升级为标准VIP 135**35...  升级为标准VIP

 156**86... 升级为高级VIP wei**n_... 升级为至尊VIP 

wei**n_...   升级为高级VIP wei**n_... 升级为标准VIP 

wei**n_...  升级为标准VIP  wei**n_... 升级为高级VIP 

 138**87... 升级为高级VIP  185**51... 升级为至尊VIP

 微**...  升级为至尊VIP  136**44...  升级为至尊VIP

  183**89... 升级为标准VIP wei**n_...  升级为至尊VIP 

8**的...  升级为至尊VIP Goo**ar...  升级为至尊VIP 

131**21...  升级为至尊VIP  139**02... 升级为标准VIP

wei**n_... 升级为高级VIP   wei**n_... 升级为高级VIP 

 wei**n_... 升级为至尊VIP  wei**n_...  升级为至尊VIP

138**05... 升级为至尊VIP  wei**n_... 升级为高级VIP  

wei**n_...  升级为至尊VIP  wei**n_...  升级为至尊VIP

wei**n_... 升级为至尊VIP  131**77...  升级为高级VIP

 wei**n_... 升级为标准VIP 186**06... 升级为高级VIP

150**97... 升级为至尊VIP   wei**n_... 升级为标准VIP 

wei**n_... 升级为至尊VIP   185**72... 升级为至尊VIP

186**81... 升级为至尊VIP 升级为至尊VIP

 159**90...  升级为标准VIP  ja**me  升级为高级VIP

wei**n_... 升级为标准VIP   wei**n_... 升级为至尊VIP

 黑碳 升级为高级VIP  黑碳 升级为标准VIP