《2023AI服务器市场需求、产业链解析及竞争格局分析报告.pdf》由会员分享,可在线阅读,更多相关《2023AI服务器市场需求、产业链解析及竞争格局分析报告.pdf(35页珍藏版)》请在三个皮匠报告上搜索。
1、2 0 2 3 年深度行业分析研究报告TV8ZvVgViYmOmOtOaQdN9PtRoOnPnOkPoOmReRnNsObRnMqRwMmRmMwMmRqN目录服务器构成及市场情况服务器构成及市场情况1、页43请务必阅读正文之后的信息披露和免责申明AIGC带来服务器变革带来服务器变革2、页7训练训练&推理带来服务器增量需求推理带来服务器增量需求3、页12AI服务器市场迎来高速发展机遇服务器市场迎来高速发展机遇4、页21AI服务器产业链解析服务器产业链解析5、页26AI服务器竞争格局服务器竞争格局6、页30相关标的相关标的7、页33服务器构成及市场情况服务器构成及市场情况14服务器整体市场情况
2、5资料来源:美科安防科技微信公众号、天风证券研究所服务器构成:服务器构成:主要硬件包括处理器、内存、芯片组、I/O(RAID卡、网卡、HBA卡)、硬盘、机箱(电源、风扇)。以一台普通的服务器生产成本为例,CPU及芯片组大致占比50%左右,内存大致占比 15%左右,外部存储大致占比10%左右,其他硬件占比25%左右。服务器的逻辑架构和普通计算机类似。但是由于需要提供高性能计算,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。逻辑架构中,最重要的部分是CPU和内存。CPU对数据进行逻辑运算,内存进行数据存储管理。服务器的固件主要包括BIOS或UEFI、BMC、CMOS,O
3、S包括32位和64位。请务必阅读正文之后的信息披露和免责申明图:服务器构成图:服务器逻辑架构服务器整体市场情况6服务器市场规模持续增长服务器市场规模持续增长。根据 Counterpoint 的全球服务器销售跟踪报告,2022年,全球服务器出货量将同比增长6%,达到 1380 万台。收入将同比增长 17%,达到1117 亿美元。根据IDC、中商产业研究院,我国服务器市场规模由2019年的182亿美元增长至2022年的273.4亿美元,复合年均增长率达14.5%,预计2023年我国服务器市场规模将增至308亿美元。竞争格局:竞争格局:根据IDC发布的2022年第四季度中国服务器市场跟踪报告Prel
4、im,浪潮份额国内领先,新华三次之,超聚变排行第三,中兴通讯进入前五。28.1%17.2%10.1%5.3%4.9%34.4%浪潮信息新华三超聚变中兴通讯联想其他资料来源:国际电子商情、中商产业研究院、同花顺财经、天风证券研究所图:2019-2023年中国服务器市场规模及预测图:2018-2022F全球服务器销售额图:中国服务器市场份额AIGC带来服务器变革带来服务器变革27AIGC火热,产业生态形成8资料来源:测控技术微信公众号、腾讯研究院AIGC发展趋势报告(2023)、天风证券研究所2022年12月,Open AI的大型语言生成模型ChatGPT火热,它能胜任刷高情商对话、生成代码、构思
5、剧本和小说等多个场景,将人机对话推向新的高度。全球各大科技企业都在积极拥抱AIGC,不断推出相关技术、平台和应用。生成算法、预训练模式、多模态等AI技术累计融合,催生了AIGC的大爆发。目前,AIGC产业生态体系的雏形已现,呈现为上中下三层架构:第一层为上游基础层第一层为上游基础层,也就是由预训练模型为基础搭建的AIGC技术基础设施层。第二层为中间层第二层为中间层,即垂直化、场景化、个性化的模型和应用工具。第三层为应用层第三层为应用层,即面向C端用户的文字、图片、音视频等内容生成服务。图:AIGC产业生态图:AIGC累计融合模型参数量持续提升9资料来源:数字金融网微信公众号、Language
6、Models are Few-Shot LearnersTom B.Brown等、天风证券研究所GPT模型对比BERT模型、T5模型的参数量有明显提升。GPT-3是目前最大的知名语言模型之一,包含了1750亿(175B)个参数。在GPT-3发布之前,最大的语言模型是微软的Turing NLG模型,大小为170亿(17B)个参数。GPT-3 的 paper 也很长,ELMO 有 15 页,BERT 有 16 页,GPT-2 有 24 页,T5 有 53 页,而 GPT-3 有 72 页。训练数据量不断加大,对于算力资源需求提升。回顾GPT的发展,GPT家族与BERT模型都是知名的NLP模型,都基
7、于Transformer技术。GPT,是一种生成式的预训练模型,由OpenAI团队最早发布于2018年,GPT-1只有12个Transformer层,而到了GPT-3,则增加到96层。其中,GPT-1使用无监督预训练与有监督微调相结合的方式,GPT-2与GPT-3则都是纯无监督预训练的方式,GPT-3相比GPT-2的进化主要是数据量、参数量的数量级提升。图:不同模型训练消耗算力图:不同模型参数量及使用数据量对比异构计算成为趋势10资料来源:青云QingCloud微信公众号、阿里云官网、天风证券研究所未来异构计算或成为主流未来异构计算或成为主流异构计算(Heterogeneous Computi
8、ng)是指使用不同类型指令集和体系架构的计算单元组成系统的计算方式,目前主要包括GPU云服务器、FPGA云服务器和弹性加速计算实例EAIS等。让最适合的专用硬件去服务最适合的业务场景。让最适合的专用硬件去服务最适合的业务场景。在CPU+GPU的异构计算架构中,GPU与CPU通过PCle总线连接协同工作,CPU所在位置称为主机端(host),而GPU所在位置称为设备端(device)。基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理逻辑复杂的串行程序,而GPU重点处理数据密集型的并行计算程序,从而发挥最大功效。越来越多的AI计算都采用异构计算来实现性能加速。阿里第一代计算型GPU实例
9、,2017年对外发布GN4,搭载Nvidia M40加速器.,在万兆网络下面向人工智能深度学习场景,相比同时代的CPU服务器性能有近7倍的提升。图:GPU+CPU异构计算图:GPU面向深度学习场景性能比CPU提升近7倍为什么GPU适用于AI11资料来源:昱唯官网、天风证券研究所未来异构计算或成为主流未来异构计算或成为主流CPU 适用于一系列广泛的工作负载,特别是那些对于延迟和单位内核性能要求较高的工作负载特别是那些对于延迟和单位内核性能要求较高的工作负载。作为强大的执行引擎,CPU 将它数量相对较少的内核集中用于处理单个任务,并快速将其完成。这使它尤其适合用于处理从串行计算到数据串行计算到数据
10、库运行等类型的工作库运行等类型的工作。GPU 最初是作为专门用于加速特定 3D 渲染任务的 ASIC 开发而成的。随着时间的推移,这些功能固定的引擎变得更加可编程化、更加灵活。尽管图形处理和当下视觉效果越来越真实的顶级游戏仍是 GPU 的主要功能,但同时,它也已经演化为用途更普遍的并行处理器,能够处理越来越多的应用程序并行处理器,能够处理越来越多的应用程序。维度维度GPUCPU核心数量数干个加速核心(双卡 M40 高达 6144 个加速核心)几十个核心产品特点1.高效众多的运算单元(ALU)支持并行处理2.多线程以到达超大并行吞吐量3.简单的逻辑控制1.复杂的逻辑控制单元2.强大的算数运算单元
11、(ALU)3.简单的逻辑控制适用场景计算密集、易于并行的程序逻组控制、串行运算的程序图:CPU与GPU的差别表:CPU与GPU的对比训练训练&推理带来服务器增量需求推理带来服务器增量需求312训练&推理13资料来源:硬十AI微信公众号、天风证券研究所训练和推理过程所处理的数据量不同。在AI实现的过程中,训练(Training)和推理(Inference)是必不可少的,其中的区别在于:训练过程:又称学习过程,是指通过大数据训练出一个复杂的神经网络模型,通过大量数据的训练确定网络中权重和偏置的值,使其能够适应特定的功能。推理过程:又称判断过程,是指利用训练好的模型,使用新数据推理出各种结论。简单理
12、解,我们学习知识的过程类似于训练,为了掌握大量的知识,必须读大量的书、专心听老师讲解,课后还要做大量的习题巩固自己对知识的理解,并通过考试来验证学习的结果。分数不同就是学习效果的差别,如果考试没通过则需要继续重新学习,不断提升对知识的掌握程度。而推理,则是应用所学的知识进行判断,比如诊断病人时候应用所学习的医学知识进行判断,做“推理”从而判断出病因。图:训练与推理差异训练&推理14资料来源:硬十AI微信公众号、天风证券研究所训练和推理过程所处理的数据量不同。训练需要密集的计算,通过神经网络算出结果后,如果发现错误或未达到预期,这时这个错误会通过网络层反向传播回来,该网络需要尝试做出新的推测,在
13、每一次尝试中,它都要调整大量的参数,还必须兼顾其它属性。再次做出推测后再次校验,通过一次又一次循环往返,直到其得到“最优”的权重配置,达成预期的正确答案。如今,神经网络复杂度越来越高,一个网络的参数可以达到百万级以上,因此每一次调整都需要进行大量的计算。吴恩达(曾在谷歌和百度任职)举例“训练一个百度的汉语语音识别模型不仅需要4TB的训练数据,而且在整个训练周期中还需要20 exaflops(百亿亿次浮点运算)的算力”,训练是一个消耗巨量算力的怪兽。推理是利用训练好的模型,使用新数据推理出各种结论,它是借助神经网络模型进行运算,利用输入的新数据“一次性”获得正确结论的过程,他不需要和训练一样需要
14、循环往复的调整参数,因此对算力的需求也会低很多。图:训练与推理图示训练&推理15资料来源:英伟达官网、天风证券研究所此外,训练和推理过程中,芯片的部署位置、准确度/精度要求、存储要求等都有所不同。训练和推理所应用的GPU/服务器也有不同。推理常用:NVIDIA T4 GPU 为不同的云端工作负载提供加速,其中包括高性能计算、深度学习训练和推理、机器学习、数据分析和图形学。引入革命性的 Turing Tensor Core 技术,使用多精度计算应对不同的工作负载。从 FP32 到 FP16,再到 INT8 和 INT4 的精度,T4 的性能比 CPU 高出 40 倍,实现了性能的重大突破。训练:
15、A100和H100。对于具有庞大数据表的超大型模型,A100 80GB 可为每个节点提供高达 1.3TB 的统一显存,而且吞吐量比A100 40GB 多高达 3 倍。在 BERT 等先进的对话式 AI 模型上,A100 可将推理吞吐量提升到高达 CPU 的 249 倍。图:T4推理性能图:A100大型模型AI训练速度图:A100服务器系统规格推算ChatGPT带来的服务器需求增量16资料来源:英伟达官网、天翼智库微信公众号、天风证券研究所由于OpenAI暂未公开ChatGPT(基于大语言模型GPT-3.5)相关技术细节。估算基于GPT-3。根据天翼智库,训练阶段的算力估算。根据OpenAI在2
16、020年发表的论文,训练阶段算力需求与模型参数数量、训练数据集规模等有关,且为两者乘积的6倍:训练阶段算力需求=6模型参数数量训练集规模。GPT-3模型参数约1750亿个,预训练数据量为45 TB,折合成训练集约为3000亿tokens。即训练阶段算力需求=61.75101131011=3.151023 FLOPS=3.15108PFLOPS依据谷歌论文,OpenAI公司训练GPT-3采用英伟达V100 GPU,有效算力比率为21.3%。GPT-3的实际算力需求应为1.48109PFLOPS(17117 PFLOPS-day)。假设应用A100 640GB服务器进行训练,该服务器AI算力性能为
17、5 PFLOPS,最大功率为6.5 kw,则我们测算训练阶段需要服务器数量=训练阶段算力需求服务器AI算力性能=2.96108台(同时工作1秒),即3423台服务器工作1日。参数量参数量值值参数量1750亿预训练数据量45TB算力需求3.15108PFLOPS有效算力比率21.3%实际算力需求1.48109PFLOPSA100服务器算力性能5 PFLOPS工作1日所需服务器(台)3423表:训练侧所需服务器测算图:A100服务器规格参数推算ChatGPT带来的服务器需求增量17资料来源:英伟达官网、天翼智库微信公众号、天风证券研究所由于OpenAI暂未公开ChatGPT(基于大语言模型GPT-
18、3.5)相关技术细节。估算基于GPT-3。根据天翼智库,训练阶段的算力估算。H100性能更强,与上一代产品相比,H100 的综合技术创新可以将大型语言模型的速度提高 30 倍。根据Nvidia测试结果,H100针对大型模型提供高达 9 倍的 AI 训练速度,超大模型的 AI 推理性能提升高达 30 倍。在数据中心级部署 H100 GPU 可提供出色的性能,并使所有研究人员均能轻松使用新一代百亿亿次级(Exascale)高性能计算(HPC)和万亿参数的 AI。H100 还采用 DPX 指令,其性能比 NVIDIA A100 Tensor Core GPU 高 7 倍,在动态编程算法(例如,用于D
19、NA 序列比对 Smith-Waterman)上比仅使用传统双路 CPU 的服务器快 40 倍。假设应用H100服务器进行训练,该服务器AI算力性能为32 PFLOPS,最大功率为10.2 kw,则我们测算训练阶段需要服务器数量=训练阶段算力需求服务器AI算力性能=4.625107台(同时工作1秒),即535台服务器工作1日。值值参数量1750亿预训练数据量45TB算力需求3.15108PFLOPS有效算力比率21.3%实际算力需求1.48109PFLOPSH100服务器算力性能32 PFLOPS工作1日所需服务器(台)535图:H100服务器规格图:H100多专家模型表现优异表:推理测所需服
20、务器测算推算ChatGPT带来的服务器需求增量18资料来源:天翼智库微信公众号、英伟达官网、天风证券研究所由于OpenAI暂未公开ChatGPT(基于大语言模型GPT-3.5)相关技术细节。估算基于GPT-3。训练阶段的算力估算-敏感性分析。根据天翼智库,GPT-3模型参数约1750亿个,预训练数据量为45 TB,折合成训练集约为3000亿tokens。按照有效算力比率21.3%来计算,训练阶段实际算力需求为1.48109PFLOPS。对AI服务器训练阶段需求进行敏感性分析,两个变化参数:同时并行训练的大模型数量、单个模型要求训练完成的时间。按照A100服务器5 PFLOPs,H100服务器3
21、2 PFLOPs来进行计算。若不同厂商需要训练10个大模型,1天内完成,则需要A100服务器34233台,需要H100服务器5349台。此外,若后续GPT模型参数迭代向上提升(GPT-4参数量可能对比GPT-3倍数级增长),则我们测算所需AI服务器数量进一步增长。训练敏感性分析训练敏感性分析同时训练的模型数量同时训练的模型数量A100(台)1234510100单个模型要求训练天数2704233 342332334564570611411 7854890489057
22、33423397852306570387603804训练敏感性分析训练敏感性分析同时训练的模型数量同时训练的模型数量H100(台)1234510100单个模型要求训练天数5253489338976276476429307824
23、3059594表:A100训练侧敏感性分析表:H100训练侧敏感性分析推算ChatGPT带来的服务器需求增量19资料来源:Simlarweb、天翼智库微信公众号、天风证券研究所由于OpenAI暂未公开ChatGPT(基于大语言模型GPT-3.5)相关技术细节。估算基于GPT-3。根据天翼智库,推理阶段的算力估算。ChatGPT与用户对话时需进行模型的推理,消耗智能算力。根据前述OpenAI论文,推理阶段算力需求是模型参数数量与训练数据集规模乘积的2倍:推理阶段算力需求=2模型参数数量训练及规模。假设每轮对话产生500 tokens(约350个单词)则每轮对话产生推理算力需求:21.751011
24、500=0.175 PFLOPS。根据Similarweb的数据,OpenAI网站月度访问量从今年1月6.67亿次,持续快速上升,到3月单月访问次数已达到16亿次,换算成每日访问量约为每日5300万访问量,假设每次访问发生10轮对话,则我们测算每日对话产生推理算力需求=0.1755.3107 10=9.275107 PFLOPS,假设有效算力比率按30%取定,则我们测算每日对话实际算力需求为3.09108PFLOPS。假设应用搭载16片V100 GPU的英伟达DGX2服务器进行训练推理,该服务器算力性能为2 PFLOPS,最大功率为10kw,则我们测算需要服务器数量为=1.545108台(同时
25、工作1秒),即1789台服务器工作1日。模型名称模型名称推出时间推出时间使用硬件使用硬件有效算力比有效算力比率率GPT-32020年5月英伟达 V10021.3%MT-NLG2021年10月英伟达 A10030.2%PaLM2022年4月谷歌TPU46.2%图:OpenAI网站访问量表:不同模型有效算力比率推算ChatGPT带来的服务器需求增量20资料来源:天翼智库微信公众号、天风证券研究所由于OpenAI暂未公开ChatGPT(基于大语言模型GPT-3.5)相关技术细节。估算基于GPT-3。推理阶段的算力估算-敏感性分析。根据天翼智库,ChatGPT与用户对话时需进行模型的推理,消耗智能算力
26、。根据前述OpenAI论文,推理阶段算力需求是模型参数数量与训练数据集规模乘积的2倍:推理阶段算力需求=2模型参数数量训练及规模。模型参数数量不变,每轮对话产生tokens数量的变化将影响推理阶段所需算力需求,随着未来智能语音、娱乐甚至B端等应用场景的增多,每轮对话产生tokens数可能发生变化,以此作敏感性分析。此外,用户访问量预计将随着ChatGPT的持续火热和普及,访问数量持续增加。若后续ChatGPT普遍应用于日常生活工作,则日访问用户数将显著提升。仍然假设每次访问发生10次对话不变。假设有效算力比率按30%取定,应用搭载16片V100 GPU的英伟达DGX2服务器进行训练推理,该服务
27、器算力性能为2 PFLOPS。我们测算得到敏感性分析如下表:推理敏感性分析推理敏感性分析每轮对话产生每轮对话产生tokens数数V100(台)00用户访问用户访问量量333867505230002034056083867566752756675200003376675237586750006
28、7523758675577500000337586757893375776751541687886表:推理测敏感性分析AI服务器市场有望迎来高速发展机遇服务器市场有望迎来高速发展机遇421AI服务器市场规模预计将高速增长22资料来源:ChinaIT、城市大脑研究院微信公众号、IDC、天风证券研究所AI服务器作为算力基础设备有望受益于算力需求持续增长AI服务器作为算力基础设备,其需求有望受益于AI时代下对于算力不断提升的需求而快速增长。根据TrendForce,截至2022年为止,预估搭载GPGPU(General Purpose
29、 GPU)的AI服务器年出货量占整体服务器比重近1%,预估在ChatBot相关应用加持下,有望再度推动AI相关领域的发展,预估出货量年成长可达8%;20222026年复合成长率将达10.8%。AI服务器是异构服务器,可以根据应用范围采用不同的组合方式,如CPU+GPU、CPU+TPU、CPU+其他加速卡等。IDC预计,中国AI服务器2021年的市场规模为57亿美元,同比增长61.6%,到2025年市场规模将增长到109亿美元,CAGR为17.5%。图:中国算力发展情况31.775.0155.2268.0427.0640.7922.81271.40.0%20.0%40.0%60.0%80.0%1
30、00.0%120.0%140.0%160.0%0.0200.0400.0600.0800.01000.01200.01400.0200222023E2024E2025E2026E百亿亿次浮点运算/秒(EFLOPS)同比增速AI服务器市场规模预计将高速增长23资料来源:天翼智库微信公众号、黑马程序员、天风证券研究所用户快速增长+模型持续迭代+应用场景的不断扩张或将使AI服务器需求超预期ChatGPT用户数快速增加,上线仅5天,用户数便突破百万,上线两月后,ChatGPT月活用户数突破1亿,根据Similarweb统计,OPENAI网站用户访问量快速增长,我们预计未来用户数仍
31、将快速提升,带来交互对话的产生,提升推理所需算力基础设施需求。2018年OpenAl正式发布GPT(生成式预训练语言模型),可以生成文章、代码、机器翻译等,GPT是ChatGPT的前身,最终形成的ChatGPT是优化版本的对话语言模型。预计GPT-4模型的参数量仍将进一步增长,根据天翼智库,给GPT-3喂料的长度每次不能超过大约2000个字,现在GPT-4的“消化能力”提升了10倍以上。带来AI应用生态的繁荣,未来有望涌现更多应用场景。图:达到1亿月活跃用户耗时图:GPT-4“消化能力”提升图:ChatGPT引发新一轮AI应用生态繁荣AI服务器市场规模预计将高速增长24资料来源:天翼智库微信公
32、众号、科普海南微信公众号、天风证券研究所用户快速增长+模型持续迭代+应用场景的不断扩张或将使AI服务器需求超预期据网站统计,目前基于ChatGPT推出的应用表现出高度活跃和极度丰富特性,截止2023年3月6日已有620个案例。从生成的内容格式来看可以把目前所有案例分为五大类,即文本生成、代码生成、图像生成、音频生成、和视频生成。其中文本生成是目前最主要的应用方向,有397个案例,占比达64.1%;随后是代码生成92个案例,占比14.7%;图像生成73个案例,占比11.8%;音频生成29个案例,占比4.7%;视频生成16个案例,占比2.6%。下游应用场景有望持续拓展。目前ChatGPT的主要应用
33、场景包括但不限于无代码编程、小说生成、对话类搜索引擎、语音陪伴、语音工作助手、对话虚拟人、人工智能客服、机器翻译、芯片设计等。随着算法技术和算力技术的不断进步,ChatGPT也有望进一步走向更先进功能更强的版本,在越来越多的领域进行应用,为人类生成更多更美好的对话和内容。图:ChatGPT应用场景案例占比及典型案例图:ChatGPT应用场景有望不断丰富AI服务器市场规模预计将高速增长25资料来源:天翼智库微信公众号、天风证券研究所用户快速增长+模型持续迭代+应用场景的不断扩张或将使AI服务器需求超预期中国电信研究院从应用技术发展成熟度、应用市场空间及应用提供方是否具有海量的业务数据基础和能力等
34、维度,采取背靠背专家评估法,邀请电信研究院战略发展研究所19位专家评分,综合评估认为,2-3年内类ChatGPT将可能在智能客服、传媒、办公及搜索领域中实现规模应用。根据红杉资本及中国电信研究院,ChatGPT引发大模型成为AI新型基础设施,使AI能力标准化、规模化、流程化、低成本化,催生产业各方应用创新。目前一切还处于“高速创新”的前期,中长期发展很有可能重构娱乐、文学等模式,并赋能教育、金融、工业、医疗等实体。短期应用在搜索+客服,中期利好内容创作+文娱生活场景,长期看好B端的产业机会。图:不同领域ChatGPT可能应用机会判断图:长期看好B端产业机会AI服务器产业链解析服务器产业链解析5
35、26AI服务器构成及形态27资料来源:浪潮官网、天风证券研究所AI服务器主要构成:以浪潮NF5688M6 服务器为例,其采用NVSwitch实现GPU跨节点P2P高速通信互联。整机8 颗 NVIDIA Ampere架构 GPU,通过NVSwitch实现GPU跨节点P2P高速通信互联。配置 2颗第三代Intel Xeon 可扩展处理器(Ice Lake),支持8块2.5英寸NVMe SSD or SATA/SAS SSD以及板载2块 SATA M.2,可选配1张PCIe 4.0 x16 OCP 3.0网卡,速率支持10G/25G/100G;可支持10个PCIe 4.0 x16插槽,2个PCIe
36、4.0 x16插槽(PCIe 4.0 x8速率),1个OCP3.0插槽;支持32条DDR4 RDIMM/LRDIMM内存,速率最高支持3200MT/s,物理结构还包括6块3000W 80Plus铂金电源、N+1冗余热插拔风扇、机箱等。目前按照GPU数量的不同,有4颗GPU(浪潮NF5448A6)、8颗GPU(Nvidia A100 640GB)以及16颗GPU(NVIDIA DGX-2)的AI服务器。4颗GPU8颗GPU图:NF5688M6产品特性图:4颗GPU与8颗GPU服务器AI服务器产业链28资料来源:各公司官网、天风证券研究所AI服务器核心组件包括GPU(图形处理器)、DRAM(动态随
37、机存取存储器)、SSD(固态硬盘)和RAID卡、CPU(中央处理器)、网卡、PCB、高速互联芯片(板内)和散热模组等。CPU主要供货厂商为Intel、GPU目前领先厂商为国际巨头英伟达,以及国内厂商如寒武纪、海光信息等。内存主要为三星、美光、海力士等厂商,国内包括兆易创新等。SSD厂商包括三星、美光、海力士等,以及国内江波龙等厂商。PCB厂商海外主要包括金像电子,国内包括沪电股份、鹏鼎控股等。主板厂商包括工业富联,服务器品牌厂商包括浪潮信息、紫光股份、中科曙光、中兴通讯等。CPUIntel、AMD内存Samsung、海力士、美光、兆易创新等SSDSamsung、海力士、美光、江波龙等PCB沪电
38、股份、金像电子、深南电路、生益科技等电源艾默生、中国长城、新雷能等散热工业富联等光模块中际旭创、Finisar、新易盛、天孚通信等GPUNvidia、寒武纪等主板/集成商工业富联、英业达等服务器厂商浪潮信息紫光股份中兴通讯中科曙光超聚变互联网厂商百度、阿里、腾讯等运营商中国移动、中国电信、中国联通政企客户政府、金融/医疗等行业客户图:AI服务器产业链液冷:数据中心液冷应用将增加29资料来源:英伟达官网、CDCC微信公众号、天风证券研究所A100服务器系统功耗明显提升。以NVIDIA的DGX A100 640GB为例,其配置了8片A100 GPU,系统功耗达到最大6.5千瓦,未来随着A100服务
39、器的应用增多,我们认为或将显著提升数据中心机柜的功耗。制冷散热主要方式:目前发展的散热冷却技术主要有风冷和液冷两大类,其中风冷包括自然风冷和强制风冷,适用的机柜功率密度较低;液冷分为单相液冷和相变液冷。散热冷却系统所采用的冷却介质、冷却方式不同,移热速率差距大。传统风冷最高可冷却30 kW/r的机柜,对于30 kW/r以上功率密度的机柜无法做到产热与移热速率匹配,会使机柜温度不断升高导致算力下降甚至损害设备。可以看到,采用A100后服务器功率大幅提升,参考上文若采用英伟达DGX A100 640GB服务器,单机柜的功率或将超过30kW,此时更适宜应用液冷的冷却方案。液冷分为间接液冷、直接单相液
40、冷和直接两相液冷,主要根据液体与IT设备接触状态来区分。我们预计液冷将在行业内开始推广,同时服务器厂商浪潮信息也开始推动进行液冷布局,All in液冷带动行业发展趋势。配置配置具体内容具体内容GPU8*NVIDIAA100 80GB Tensor Core GPU性能性能5 petaFLOPS AI10 petaOPS INT8系统功耗系统功耗最大6.5千瓦CPU双路AMD Rome 7742、共128个核心、2.25GHz(基准频率)、3.4GHz(最大加速频率)系统尺寸系统尺寸高度:264.0毫米宽度:最大482.3毫米长度:最大897.1毫米表表:NVIDIA DGX A100 640G
41、B系统规格系统规格图:不同制冷方式所对应适用机柜功率及传热系数AI服务器竞争格局服务器竞争格局630AI服务器竞争格局31资料来源:ChinaIT、天风证券研究所IDC发布了2022年第四季度中国服务器市场跟踪报告Prelim。从报告可以看到,前两名浪潮与新华三的变化较小,第三名为超聚变,从3.2%份额一跃而至10.1%,增幅远超其他服务器厂商。Top8服务器厂商中,浪潮、戴尔、联想均出现显著下滑,超聚变和中兴则取得明显增长。其中,浪潮份额从30.8%下降至28.1%;新华三份额从17.5%下降至17.2%;中兴通讯(000063)从3.1%提升至5.3%,位居国内第5。联想降幅最为明显,从7
42、.5%下降至4.9%。据TrendForce集邦咨询统计,2022年AI服务器采购占比以北美四大云端业者Google、AWS、Meta、Microsoft合计占66.2%为最,而中国近年来随着国产化力道加剧,AI建设浪潮随之增温,以ByteDance的采购力道最为显著,年采购占比达6.2%,其次紧接在后的则是Tencent、Alibaba与Baidu,分别约为2.3%、1.5%与1.5%。国内AI服务器竞争厂商包括:浪潮信息、新华三、超聚变、中兴通讯等。图:2022年AI服务器采购量占比AI服务器竞争格局32资料来源:浪潮信息官网、Wind、同花顺财经、IDC、天风证券研究所服务器主要厂商包括
43、:工业富联、浪潮信息、超聚变、紫光股份(新华三)、中兴通讯、中科曙光。AI服务器目前领先厂商为工业富联和浪潮信息,浪潮信息在阿里、腾讯、百度AI服务器占比高达90%。紫光股份在 GPU 服务器市场处于领先地位,有各种类型的 GPU 服务器满足各种 AI 场景应用。特别针对 GPT 场景而优化的 GPU 服务器已经完成开发,并取得 31 个世界领先的测试指标,该新一代系列 GPU 服务器将在今年二季度全面上市。中兴通讯近年服务器发展较快,年初推出AI服务器G5服务器,此外在布局新一代AI加速芯片、模型轻量化技术,大幅降低大模型推理成本。营业收入(亿元)营业收入(亿元)归母净利润(亿元)归母净利润
44、(亿元)23年年PE(截至(截至2023.4.18一致预期)一致预期)22Q4中国服务中国服务器市场份额器市场份额2020A2021A2022A2020A2021A2022A浪潮信息630.38670.48695.2514.6620.0320.8022.5228.1%紫光股份597.05676.38740.5818.9521.4821.5834.2517.2%中兴通讯1014.511145.221229.5442.6068.1380.8016.825.3%超聚变10.1%中科曙光101.60112.00130.088.2211.5815.4434.96图:浪潮信息人工智能服务器市场份额图:浪潮
45、信息在阿里、腾讯、百度AI服务器占比高达90%表:各服务器厂商对比相关标的相关标的733中兴通讯34资料来源:中兴通讯官网、中兴通讯公告、天风证券研究所中兴通讯作为全球主要的ICT厂商之一,产品广泛覆盖运营商网络、政企设备和应用、消费者终端和应用等众多信息通信网络环节,覆盖底层网络基础设施(5G基站和SPN、传输网各类设备、千兆宽带设备等),算力基础(服务器、存储等),垂直行业和消费侧的网络和终端(企业级网络设备、工业网关、手机、家庭终端等),应用产品(数据库、云视频、云平台等)。随着数字经济的持续深入发展,未来中兴通讯有望深度参与数字经济建设,在底层网络、算力和流量以及上层众多垂直行业和消费
46、者终端和应用领域长期成长。服务器及存储产品已规模进入金融、互联网、能源等行业的头部企业。在AI方面,1)公司的新一代智算中心基础设施产品,全面支持大模型训练和推理,包括高性能AI服务器、高性能交换机、DPU等;2)下一代数字星云解决方案,利用生成式AI技术,在代码生成、办公智能化、运营智能化等领域展开研究,全面提升企业效率;3)新一代AI加速芯片、模型轻量化技术,大幅降低大模型推理成本。数字经济相关环节数字经济相关环节细分产业链细分产业链中兴通讯提供的产品和服务中兴通讯提供的产品和服务底层网络底层网络5G基站、SPN传输设备等千兆宽带10GPON终端和局端设备流量相关流量相关传输网传输网设备、
47、交换机、路由器等应用相关应用相关云计算服务器、储存、交换机、路由器、模块化数据中心产品、数据库、云平台、云电脑、云视频等企业/园区网络企业级交换机、路由器、网关等物联网、工业互联网工业网关、系统解决方案消费者终端智能手机、智能手表等人工智能uSmartInsight人工智能平台虚拟现实和增强现实XRExplore平台家庭媒体中心IP机顶盒、AI智能交互产品类型产品类型具体产品具体产品应用领域应用领域IT服务器、存储等公有云、私有云以及政企机房等场景使用的服务器、存储等设备数据通信数据通信交换机、路由器、网络安全、网络管理等政府、企业等客户的接入网、机房、网络管理、网络安全等使用的设备以及成套解
48、决方案WLAN企业AP、企业AC等企业、商业、工业等场景下的无线接入网络及控制系统能源能源通信电源、储能电源、微模块等机房、数据中心等电源模块和系统接入和传输接入和传输PON、接入终端、OTN、PTN、MSTP等针对政企等客户的专网、内网等需求提供的接入及传输网络产品云视讯云视讯云视讯平台,个人终端,大屏一体机、融合调度等企业、政府、公安等视频终端、平台及系统数据库数据库GoldenDB分布式数据库主要针对金融行业的分布式数据库表:数字经济中中兴通讯提供的产品和服务表:中兴通讯政企业务主要产品梳理紫光股份35资料来源:各公司官网、紫光股份2020年度报告、紫光股份2021年度报告、IDC、天风
49、证券研究所公司深耕ICT领域,业务覆盖数字化基础设施产品。2016年收购新华三集团,进一步提升公司技术实力与业务范围,打造“云网边端芯”产业链。公司在 GPU 服务器市场处于领先地位,有各种类型的 GPU 服务器满足各种AI 场景应用。特别针对 GPT 场景而优化的 GPU 服务器已经完成开发,并取得 31 个世界领先的测试指标,该新一代系列 GPU 服务器将在今年二季度全面上市。全球服务器市场来看:新华三/HPE有望赶超戴尔,联想增长势头较猛。21Q1份额情况来看,CR5为52.3%,戴尔全球领先占据17%市场份额。市场份额变动情况来看,戴尔出现颓势,市场份额出现较大下滑,而新华三/HPE稳
50、中有进,未来有望赶超戴尔。市场市场21年年排名排名20021中国以太网交换机市中国以太网交换机市场场第二33.2%35.5%35.0%35.2%中国企业网路由器市中国企业网路由器市场场第二27.2%27.9%30.8%31.3%中国企业级中国企业级WLAN第一31.1%30.9%31.3%28.4%中国中国X86服务器市场服务器市场第二11.7%16.1%15.4%17.4%中国存储市场中国存储市场第二10.7%11.8%11.4%12.6%中国安全硬件市场中国安全硬件市场第二9.9%9.3%9.4%9.0%中国超融合市场中国超融合市场第一18.2%21%20.7%20.
51、5%中国中国SDN(软件软件)市市场场第一-中国云管理平台市场中国云管理平台市场第一-17.00%15.90%7.20%6.90%5.30%26.30%21.40%戴尔HPE/H3C浪潮联想IBMODM Direct其他图:2021Q1服务器市场份额情况表:紫光股份各市场排名及份额情况图:紫光股份业务结构润泽科技36资料来源:润泽科技公司公告、润泽科技公司官网,佛山市政府官网,DTDTDA等,天风证券研究所公司积极规划新建数据中心,持续扩大自建自持规模。截至2021年10月31日,公司已累计投产机柜38,690个,累计上电机柜28,660个;公司积极布局自建数据中心,截止2021年10月在建/
52、规划建设数据中心项目9个,建成后将大幅增加公司业务能力。且新建机房主要分布在长三角、大湾区枢纽以及成渝枢纽新片区。润泽科技数据中心项目布局均位于大数据中心国家枢纽节点,符合国家数据中心建设布局,依托廊坊的开发经验在全国复制推广,区域优势与规模效应显著。自建电站、自建综合管廊,提供稳定强劲电力引擎。电力供应作为公司数据中心建设的三个必要条件之一,润泽科技已在全国布局项目电力供应保障。廊坊地区除了政府配套的多路市政供电,2021年公司已投产一座用户自用110KV变电站,2022年开始投建一座220KV变电站。14,03612,22520,48515,55632,53223,02738,69028,66005,00010,00015,00020,00025,00030,00035,00040,00045,000累计投产机柜(个)累计上电机柜(个)2018/12/312019/12/312020/12/312021/10/31图:润泽科技机柜数量图:润泽科技机房图示图:润泽科技机柜布局规划