上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

AI算力行业深度:供需格局、产业发展前瞻、产业链及重点公司梳理-230403(29页).pdf

编号:120850 PDF 29页 4.04MB 下载积分:VIP专享
下载报告请您先登录!

AI算力行业深度:供需格局、产业发展前瞻、产业链及重点公司梳理-230403(29页).pdf

1、 1/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 行业研究报告 慧博智能投研 AI 算力行业深度:算力行业深度:供需格局、供需格局、产业发展前瞻、产业发展前瞻、产业链及重点公司梳理产业链及重点公司梳理 近期,伴随着 ChatGPT 带来的鲶鱼效应,人工智能成为科技产业创新的焦点,科技产业龙头正加大在人工智能领域的军备竞赛。算法、数据、算力作为人工智能领域的三要素,也同时受到了业内关注。其中,算力是军备竞赛的重点,相关企业正在加速布局。生成式 AI 需要基于海量自然语言或多模态数据集训练,拥有巨大参数量的超大规模 AI 模型,所需 AI算力当量显著提升。例如,

2、以 PD(Petaflops-Day)为单位来衡量,GPT-3 大模型训练的算力当量为3640PD。超大规模 AI 大模型训练一般须在大规模 AI 服务器集群上进行,AI 服务器、AI 芯片等算力相关市场需求有望提升。在 AI 时代,传统算力面临挑战。普通服务器采用串行架构,主要以 CPU 提供算力,在进行逻辑判断时需要大量分支跳转处理,CPU 结构复杂,算力提升主要依靠核心数的数量提升。随着目前 CPU 制程工艺已经让单个 CPU 的核心数接近极限,而爆炸式增长的数据、逐步复杂的算法模型、不断深入发展的应用场景,使得对算力能力和算力规模的需求快速提升,普通服务器已无法满足不断增长的算力需求。

3、以下我们就将对当前比较火热的 AI 算力话题进行探讨分析,从当前产业现状、供需格局出发,分析梳理 AI 算力发展的关键环节AI 服务器和 AI 芯片的产业现状和格局,及当下产业瓶颈及突破路径,同时对算力产业链及相关企业、细分受益环节、产业发展前瞻等进行分析,以全面了解 AI 算力当下发展状况及未来发展趋势。目录目录 一、产业概况.1 二、产业发展现状.3 三、供需格局分析.5 四、AI 服务器产业格局.10 五、AI 芯片产业格局.12 六、产业瓶颈及突破路径.17 七、产业链及相关企业.20 七、细分受益环节.24 八、产业发展前瞻.26 九、参考研报.29 一、一、产业概况产业概况 1、相

4、关概念相关概念 2/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 算力是人工智能三要素之一,已成为人工智能产业化进一步发展的关键。所谓算力,就是计算能力,是指对数据的处理能力,它被视为数字经济时代的新生产力,是推动数字经济发展的核心力量。其中,算力的大小代表着对数字化信息处理能力的强弱。从原始社会的手动式计算到古代的机械式计算、近现代的电子计算,再到现在的数字计算,算力指代了人类对数据的处理能力,也集中代表了人类智慧的发展水平。伴随着云计算技术和 5G 通信技术的发展,使得算力的分布和调度更加灵活,有助于满足各种场景下对高性能计算的需求。未来随着技术的进步和应

5、用场景的不断拓展,算力将继续发挥重要作用,推动整个人工智能行业的创新和发展。2、算力:算力:ChatGPT 发展的核心基础底座发展的核心基础底座 ChatGPT 能够实现当前如此强大的交互,离不开背后庞大的算力支撑能够实现当前如此强大的交互,离不开背后庞大的算力支撑。根据绿色节能数据中心官方公众号,ChatGPT 的总算力消耗约为 3640PF-days。按近期在国内落地的某数据中心为参照物,算力500P 耗资 30.2 亿落成,若要支持 ChatGPT 的运行,需要 78 个这样数据中心支撑,基础设施投入需以百亿计。因此,随着 AI 等新技术的发展,对高可靠、高性能、高安全算力需求更加突出,

6、全球正掀起一场算力的“军备竞赛”,数据中心、AI 芯片、服务器等环节作为算力基础设施,有望被高度重视。3、AI 算力算力市场市场呈呈高速增长态势高速增长态势,算力成为算力成为 AI 突破的关键因素突破的关键因素 数据、算力及算法是人工智能发展的三要素。在这三要素中,数据与算法都离不开算力的支撑。随着 AI算法突飞猛进的发展,越来越多的模型训练需要巨量算力支撑,才能快速有效实施,同时数据量的不断增加也要求算力配套进化。如此看来,算力成为 AI 突破的关键因素。ChatGPT 引发新一轮引发新一轮 AI 算力需求爆发算力需求爆发。根据 OpenAI 发布的AIand Compute分析报告中指出,

7、自 2012 年以来,AI 训练应用的算力需求每 3-4 个月就会翻倍,从 2012 年至今,AI 算力增长超过了 30万倍。据 OpenAI 报告,ChatGPT 的总算力消耗约为 3640PF-days(即假如每秒计算一千万亿次,需要计算 3640 天),需要 7-8 个算力 500P 的数据中心才能支撑运行。上海新兴信息通信技术应用研究院首席专家贺仁龙表示,“自 2016 年阿尔法狗问世,智能算力需求开启爆发态势。如今 ChatGPT 则代表新一轮 AI 算力需求的爆发”。5XbWiXlXbVmVuVrYrY8OdNaQsQrRsQtQiNrRnRlOrRsOaQmMxOvPoNuMNZ

8、nPmO 3/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 全球算力规模将呈现高速增长态势全球算力规模将呈现高速增长态势。根据国家数据资源调查报告数据,2021 年全球数据总产量 67ZB,近三年平均增速超过 26%,经中国信息通信研究院测算,2021 年全球计算设备算力总规模达到615EFlops,增速达 44%。根据中国信通院援引的 IDC 数据,2025 年全球算力整体规模将达3300EFlops,2020-2025 年的年均复合增长率达到 50.4%。结合华为 GIV 预测,2030 年人类将迎来YB 数据时代,全球算力规模达到 56ZFlops,20

9、25-2030 年复合增速达到 76.2%。4、算力需求攀升算力需求攀升下下,GPU 行业市场巨大行业市场巨大 AIGC 模型硬件以 GPGPU 为主,GPU 市场规模有望在 2030 年超过 4000 亿美元。GPU 在并行计算方面具有性能优势,在 AI 领域分化成两条分支:一条是传统意义的 GPU,专门用于图形图像处理用途;另一条是 GPGPU,作为运算协处理器,增加了专用指令来满足不同领域的计算需求。使用 GPGPU 在云端进行模型训练算法,能够显著缩短海量训练数据的训练时长,减少能源消耗,从而降低人工智能的应用成本,目前全球人工智能相关处理器解决方案仍以 GPGPU 为主。根据 Ver

10、ified Market Research 报告,2021 年全球 GPU 芯片市场规模已经达到了 334.7 亿美元,并预计到 2030 年将达到 4,773.7 亿美元,CAGR 高达 33.3%。GPU 市场保持着高速增长态势,其在人工智能领域中仍然是不可或缺的计算资源之一。二、二、产业发展现状产业发展现状 1、当前、当前大模型的实现,需要强大的算力来支持训练过程和推理过程大模型的实现,需要强大的算力来支持训练过程和推理过程 大模型的实现大模型的实现,需要十分强大的算力来支持训练过程和推理过程需要十分强大的算力来支持训练过程和推理过程。根据 OPENAI 数据,训练 GPT-3175B

11、的模型,需要的算力高达 3640PF-days。2018 年以来,大模型的参数量级已达到数千亿参数的量级规模,对算力的需求将呈现指数级增长。4/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 2、AI 芯片性能提升芯片性能提升,成为决定大模型从理论实践到大规模应用的关键要成为决定大模型从理论实践到大规模应用的关键要素素 根据COMPUTE TRENDS ACROSS THREE ERAS OF MACHINE LEARNING研究结果,AI 芯片的性能提升成为决定大模型从理论实践到大规模应用的关键要素。在供给端,AI 芯片厂商推出了性能越来越强的新产品来应对人工

12、智能发展的算力需求。以英伟达英伟达为例,2020 年,英伟达推出了 A100 GPU 芯片,相比上一代 V100 GPU 芯片,A100 GPU 芯片性能大幅提升。针对大模型,A100 GPU 芯片相比 V100 GPU 芯片可提供高达 3 倍的训练速度。3、大模型将为全球和中国大模型将为全球和中国 AI 芯片和芯片和 AI 服务器市场的增长服务器市场的增长,提供强劲动提供强劲动力力 随着全球和中国人工智能厂商布局大模型,大模型将为全球和中国 AI 服务器市场的增长提供强劲动力。根据2022 年北京人工智能产业发展白皮书数据,截至 2022 年 10 月,北京拥有人工智能核心企业1048 家,

13、占我国人工智能核心企业总量的 29%。以此计算,我国人工智能核心企业总数约为 3614 家。5/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 假设其中有 2%的企业自建 IDC 训练和推理大模型,那么单一企业自建 IDC 推理和训练大模型的算力成本约为 4.78(4.03+0.75)亿美元,以此估算,大模型将为我国 AI 服务器市场带来约 345.50 亿美元的市场空间。以 2021 年我国 AI 服务器市场规模占全球 AI 服务器市场规模的占比估算,则将为全球 AI 服务器市场带来约 910.44 亿美元的市场空间。市场空间巨大,相关芯片和服务器厂商将深度受

14、益此次ChatGPT 浪潮。三三、供需格局分析、供需格局分析 1、需求端:需求端:大算力消耗带来大算力消耗带来训练成本上升训练成本上升,算力霸权时代或将到来算力霸权时代或将到来 大算力消耗带来训练成本上升大算力消耗带来训练成本上升,训练训练 ChatGPT 需要使用大量算力资源需要使用大量算力资源。据微软官网,微软 Azure 为OpenAI 开发的超级计算机是一个单一系统,具有超过 28.5 万个 CPU 核心、1 万个 GPU 和 400GB/s 的GPU 服务器网络传输带宽。据英伟达,使用单个 Tesla 架构的 V100 GPU 对 1746 亿参数的 GPT-3 模型进行一次训练,需

15、要用 288 年时间。此外,算力资源的大量消耗,必然伴随着算力成本的上升,据Lambda,使用训练一次 1746 亿参数的 GPT-3 模型,所需花费的算力成本超过 460 万美元。虽然 GPT-3.5 在模型参数量上有了明显下降,但考虑到 GPT-3、GPT-3.5 均为 OpenAI 独家拥有,其他厂商复刻难度较高,巨量参数或仍将是模型开发过程的必经之路,我们预计未来大模型开发的算力成本仍将较高。模型算力需求增速超越芯片性能增速,算力霸权时代或将到来模型算力需求增速超越芯片性能增速,算力霸权时代或将到来。据 OpenAI 测算,自 2012 年以来,全球头部 AI 模型训练算力需求 3-4

16、 个月翻一番,每年头部训练模型所需算力增长幅度高达 10 倍。而摩尔定律认为,芯片计算性能大约每 18-24 个月翻一番。因此,AI 训练模型算力需求增长与芯片计算性能增长之间的不匹配,或将带来对算力基础设施供给需求的快速增长。考虑到算力对于 AI 模型训练效果的关键性作用,拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的 AI 模型,算力霸权时代或将开启。6/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 具体来看,具体来看,AI 大模型对于算力资源的需求主要体现在以下三类场景:大模型对于算力资源的需求主要体现在以下三类场景:(1)模型预训练带来的算力需

17、求模型预训练带来的算力需求 模型预训练过程是消耗算力的最主要场景。ChatGPT 采用预训练语言模型,核心思想是在利用标注数据之前,先利用无标注的数据,即纯文本数据训练模型,从而使模型能够学到一些潜在的跟标注无关的知识,最终在具体的任务上,预训练模型就可以利用大量的无标注数据知识。在 Transformer 的模型架构下,语言预训练过程可以根据上下文一次处理所有输入,实现大规模并行计算。通过堆叠多个解码模块,模型的层数规模也会随着提升,可承载的参数量同步增长。与之相对应的,模型训练所需要消耗的算力也就越大。预计预计训练一次训练一次 ChatGPT 模型需要的算力约模型需要的算力约 27.5PF

18、lop/s-day。据 OpenAI 团队发表于 2020 年的论文Language Models are Few-Shot Learners,训练一次 13 亿参数的 GPT-3XL 模型需要的全部算力约为 27.5PFlop/s-day,训练一次 1746 亿参数的 GPT-3 模型需要的算力约为 3640PFlop/s-day。考虑到 ChatGPT 训练所用的模型是基于 13 亿参数的 GPT-3.5 模型微调而来,参数量与 GPT-3XL 模型接近,因此我们预计训练所需算力约 27.5PFlop/s-day,即以 1 万亿次每秒的速度进行计算,需要耗时 27.5 天。7/29 202

19、3 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 (2)日常运营带来的算力需求日常运营带来的算力需求 预计预计 ChatGPT 单月运营需要算力约单月运营需要算力约 4874.4PFlop/s-day,对应成本约,对应成本约 616 万美元万美元。在完成模型预训练之后,ChatGPT 对于底层算力的需求并未结束,日常运营过程中,用户交互带来的数据处理需求,同样也是一笔不小的算力开支。据 SimilarWeb 数据,2023 年 1 月 ChatGPT 官网总访问量为 6.16 亿次。据 Fortune 杂志,每次用户与 ChatGPT 互动,产生的算力云服务成本约 0.01

20、美元。基于此,我们测算得 2023 年 1 月 OpenAI 为 ChatGPT 支付的运营算力成本约 616 万美元。据上文,我们已知训练一次 1746 亿参数的 GPT-3 模型需要 3640PFlop/s-day 的算力及 460 万美元的成本,假设单位算力成本固定,测算得 ChatGPT 单月运营所需算力约 4874.4PFlop/s-day。(3)Finetune 带来的算力需求带来的算力需求 8/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 模型调优带来迭代算力需求模型调优带来迭代算力需求。从模型迭代的角度来看,ChatGPT 模型并不是静态的,而

21、是需要不断进行Finetune 模型调优,以确保模型处于最佳应用状态。这一过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和 PPO 策略,对模型进行大规模或小规模的迭代训练。因此,模型调优同样会为 OpenAI 带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。2、供给端:核心环节有望率先受益供给端:核心环节有望率先受益(1)算力芯片:算力芯片:AI 算力基石,需求有望大规模扩张算力基石,需求有望大规模扩张 GPU 架构更适合进行大规模架构更适合进行大规模 AI 并行计算,需求有望大规模扩张并行计算,需求有望大规模扩张。从 Cha

22、tGPT 模型计算方式来看,主要特征是采用了并行计算。对比上一代深度学习模型 RNN 来看,Transformer 架构下,AI 模型可以为输入序列中的任何字符提供上下文,因此可以一次处理所有输入,而不是一次只处理一个词,从而使得更大规模的参数计算成为可能。而从 GPU 的计算方式来看,由于 GPU 采用了数量众多的计算单元和超长的流水线,因此其架构设计较 CPU 而言,更适合进行大吞吐量的 AI 并行计算。基于此,我们认为,随着大模型训练需求逐步增长,下游厂商对于 GPU 先进算力及芯片数量的需求均有望提升。单一英伟达单一英伟达 V100 芯片进行一次芯片进行一次 ChatGPT 模型训练,

23、大约需要模型训练,大约需要 220 天天。我们以 AI 训练常用的 GPU产品NVIDIA V100 为例。V100 在设计之初,就定位于服务数据中心超大规模服务器。据英伟达官网,V100 拥有 640 个 Tensor 内核,对比基于单路英特尔金牌 6240 的 CPU 服务器,可以实现 24 倍的性能提升。考虑到不同版本的 V100 芯片,在深度学习场景下计算性能存在差异,因此我们折中选择NVLink 版本 V100(深度学习算力 125TFlops)来计算大模型训练需求。据相关测算,我们已知训练一次 ChatGPT 模型(13 亿参数)需要的算力约 27.5PFlop/s-day,计算得

24、若由单个 V100GPU 进行计算,需 220 天;若将计算需求平均分摊至 1 万片 GPU,一次训练所用时长则缩短至约 32 分钟。(2)服务器:服务器:AI 服务器有望持续放量服务器有望持续放量 ChatGPT 主要进行矩阵向量计算,主要进行矩阵向量计算,AI 服务器处理效率更高服务器处理效率更高。从 ChatGPT 模型结构来看,基于Transformer 架构,ChatGPT 模型采用注意力机制进行文本单词权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。而 AI 服务器中往往集成多个 AIGPU,AIGPU 通常支持 9/29 2023 年年 4 月月 3

25、日日 行业行业|深度深度|研究报告研究报告 多重矩阵运算,例如卷积、池化和激活函数,以加速深度学习算法的运算。因此在人工智能场景下,AI服务器往往较 GPU 服务器计算效率更高,具备一定应用优势。单台服务器进行一次单台服务器进行一次 ChatGPT 模型训练所需时间约为模型训练所需时间约为 5.5 天天。我们以浪潮信息浪潮信息目前算力最强的服务器产品之一浪潮 NF5688M6 为例。NF5688M6 是浪潮为超大规模数据中心研发的 NVLink AI 服务器,支持 2 颗 Intel 最新的 Ice Lake CPU 和 8 颗 NVIDIA 最新的 NVSwitch 全互联 A800GPU,

26、单机可提供5 PFlops 的 AI 计算性能。我们已知训练一次 ChatGPT 模型(13 亿参数)需要的算力约 27.5PFlop/s-day,计算得若由单台 NF5688M6 服务器进行计算,需 5.5 天。大模型训练需求有望带动大模型训练需求有望带动 AI 服务器放量服务器放量。随着大数据及云计算的增长带来数据量的增加,对于 AI 智能服务器的需求明显提高。据 IDC 数据,2021 年全球 AI 服务器市场规模为 156 亿美元,预计到 2025 年全球 AI 服务器市场将达到 318 亿美元,预计 22-25 年 CAGR 将达 19.5%。2021 年中国 AI 服务器行业市场规

27、模为 350.3 亿元,同比增长 68.6%,预计 22-25 年 CAGR 将达 19.0%。我们认为,随着ChatGPT 持续火热,国内厂商陆续布局 ChatGPT 类似产品,AI 服务器采购需求有望持续增长,市场规模或将进一步扩张。(3)数据中心:核心城市集中算力缺口或将加剧数据中心:核心城市集中算力缺口或将加剧 IDC 算力服务是承接算力服务是承接 AI 计算需求的直接形式计算需求的直接形式。ChatGPT 的模型计算主要基于微软的 Azure 云服务进行,本质上是借助微软自有的 IDC 资源,在云端完成计算过程后,再将结果返回给 OpenAI。可见,IDC 是承接人工智能计算任务的重

28、要算力基础设施之一,但并不是所有企业都需要自行搭建算力设施。从国内数据中心的业务形态来看,按照机房产权归属及建设方式的角度,可分为自建机房、租赁机房、承接大客户定制化需求以及轻资产衍生模式四种。AI 训练需求有望带动训练需求有望带动 IDC 市场规模快速增长市场规模快速增长。据中国信通院,2021 年国内 IDC 市场规模 1500.2 亿元,同比增长 28.5%。随着我国各地区、各行业数字化转型深入推进、AI 训练需求持续增长、智能终端实时计算需求增长,2022 年国内市场规模达 1900.7 亿元,同增 26.7%。10/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报

29、告研究报告 互联网厂商布局互联网厂商布局 ChatGPT 类似产品,或将加大核心城市类似产品,或将加大核心城市 IDC 算力供给缺口算力供给缺口。据艾瑞咨询,2021 年国内 IDC 行业下游客户占比中,互联网厂商居首位,占比为 60%;其次为金融业,占比为 20%;政府机关占比 10%,位列第三。而目前国内布局 ChatGPT 类似模型的企业,同样以互联网厂商为主,如百度百度宣布旗下大模型产品“文心一言”将于 2022 年 3 月内测、京东京东于 2023 年 2 月 10 日宣布推出产业版ChatGPT:ChatJD。另一方面,国内互联网厂商大多聚集在北京、上海、深圳、杭州等国内核心城市,

30、在可靠性、安全性及网络延迟等性能要求下,或将加大对本地 IDC 算力需求,国内核心城市 IDC 算力供给缺口或将加大。四四、AI 服务器产业格局服务器产业格局 AI 服务器和 AI 芯片是算力发展中极为重要,同时也是企业争相突破的环节,其发展状况,对于整个人工智能行业的发展至关重要,以下我们就分别对 AI 芯片和 AI 服务器两部分展开分析。1、AI 服务器:人工智能发展核心算力底座服务器:人工智能发展核心算力底座,算力升级催化算力升级催化其其加速渗透加速渗透 AI 服务器是采用异构形式的服务器,如 CPU+GPU、CPU+TPU、CPU+其他的加速卡等。而普通的服务器是以 CPU 为算力的提

31、供者,采用的是串行架构。在大数据、云计算、人工智能及物联网等网络技术的应用下,数据呈现几何倍数的增长,CPU 的核心数已经接近极限,但数据还在持续增加,因此必须提升服务器的数据处理能力,AI 服务器应运而生。通常 AI 服务器需要承担大量的计算,一般配置四块以上的 GPU 卡。随着数据及运算量提升,接口传输速度要求提升,对应 PCB 层数将增加、介电损耗降低且单价提升,端口数量增加亦将拉动以太网物理层芯片(PHY)的用量提升,CPU、GPU 供电使用的多相电源需求量大幅增加。在此基础上,由于有多个 GPU 卡,需对系统结构、散热、拓扑等进行设计,才能满足 AI服务器长期稳定运行的要求。11/2

32、9 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 随数据量提升,随数据量提升,AI 服务器加速渗透,服务器加速渗透,22-26 年全球服务器市场复合增速近年全球服务器市场复合增速近 15%。根据 IDC 数据,2022 年全球 AI 相关支出 1193 亿美元,同比增长 28.0%,其中 AI 硬件、AI 服务、AI 软件支出占比分别为 20.4%、24.5%、55.1%;AI 硬件支出中,服务器、存储器占比 83.2%、16.8%。根据 IDC 数据,2022 年全球 AI 服务器市场规模 202 亿美元,同比增长 29.8%,占服务器市场规模的比例为 16.4%

33、,同比提升 1.2pct。2022 年上半年全球 AI 服务器市场中,浪潮浪潮、戴尔戴尔、惠普惠普、联想联想、新华新华三三分别以 15.1%、14.1%、7.7%、5.6%、4.7%的市场份额位居前五位。IDC 预计 2026 年全球 AI 服务器市场规模将达到355 亿美元,对应 22-26 年 CAGR 为 15.1%。2、国内国内 AI 服务器服务器呈现呈现一超多强一超多强的市场格局的市场格局 浪潮信息占据全球浪潮信息占据全球 AI 服务器市场龙头地位服务器市场龙头地位。根据 IDC 统计,中国企业在全球 AI 服务器市场中所占份额持续提升。其中,2021 年浪潮信息浪潮信息市场份额约

34、20%,龙头地位稳固;戴尔戴尔和 HPE 市占率分别达到13.8%、9.8%,排名分列第二、第三。国内国内 AI 服务器市场集中度高,呈现服务器市场集中度高,呈现“一超多强一超多强”的局面的局面。根据 IDC 统计,2021 年国内 AI 服务器排名前5 的厂商占据了超过 80%的市场份额。其中,浪潮信息浪潮信息的市占率遥遥领先,约 52%;宁畅宁畅、华为华为、新华新华三三市占率相近,略低于 8%,构成第二梯队;安擎安擎、宝德宝德分别为 6.8%、5.1%,紧随其后。12/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 AI 服务器性能要求持续提升,产品不断迭代

35、服务器性能要求持续提升,产品不断迭代。大规模 AI 计算模型,不仅仅对 AI 服务器的空间和算力提出了极高的要求,还在冷却技术、算力资源调度和灵活性方面,推动着高性能、高技术水平产品的诞生。国内代表性企业推出的 AI 服务器产品,在 CPU 和 GPU 芯片性能、功率、计算平台和扩展等关键指标上达到了较高水平,支持互联网、数据库、分布式存储和加速计算等行业多样化的应用场景。例如,浪潮信息浪潮信息的 NF5688M6 服务器是为超大规模数据中心专门研发,空间达到 6U,采用 GPU:计算 IB:存储 IB=8:8:2 的高性能配比,适用于对算力要求较高的大规模的模型训练。五五、AI 芯片产业格局

36、芯片产业格局 1、AI 芯片芯片提供算力提供算力基础,国内基础,国内外市场都将保持外市场都将保持快速增长快速增长 全球市场全球市场:全球人工智能技术发展逐渐成熟,数字化基础设施不断建设完善,推动全球人工智能芯片市场高速增长。IDC 全球范围调研显示,人工智能芯片搭载率(attachrate)将持续增高。根据 Tractica、寒武纪招股书相关数据,全球人工智能芯片 2022 年市场规模预计约 395 亿美金,预计到 2025 年将达到 726 亿美金,年复合增长率达到 22%。国内市场国内市场:22-24 年复合增速有望达到 46%。随着大数据的发展和计算能力的提升,根据寒武纪招股书,2022

37、 年中国人工智能芯片市场规模预计达 368 亿元,预计 2024 年市场规模将达到 785 亿元,复合增速有望达到 46%。13/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 2021 年国内仍以 GPU 为主实现数据中心计算加速。根据 IDC 数据,2021 年中国人工智能芯片市场中,GPU 的市场占有率近 90%,ASIC,FPGA,NPU 等非 GPU 芯片市场占有率超过 10%。2、AI 芯片赋能算力基石,英伟达垄断全球市场芯片赋能算力基石,英伟达垄断全球市场 AI 算力芯片主要包括 GPU、FPGA,以及以 VPU、TPU 为代表的 ASIC 芯片。

38、其中以 GPU 用量最大,据 IDC 数据,预计到 2025 年 GPU 仍将占据 AI 芯片 8 成市场份额。然而,相较传统图形 GPU,通用型算力 GPU 在芯片架构上缩减了图形图像显示、渲染等功能实现,具有更优的计算能效比,因而被广泛应用于人工智能模型训练、推理领域。14/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 根据在网络中的位置,AI 芯片可以分为云端 AI 芯片、边缘和终端 AI 芯片;根据其在实践中的目标,可分为训练(training)芯片和推理(inference)芯片。云端主要部署高算力的 AI 训练芯片和推理芯片,承担训练和推理任务,具

39、体有智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。由于英伟英伟达达 GPU 产品线丰富、产品性能顶尖、开发生态成熟,目前全球 AI 算力芯片市场仍由英伟达垄断。根据中国信通院的数据,2021 年 Q4 英伟达占据了全球 95.7%的 GPU 算力芯片市场份额,因此,英伟达数据中心业务营收增速可以较好地反应全球 AI 芯片市场增速。2023 财年,英伟达数据中心营收达到 150 亿美元,同比增长 41%,FY2017-FY2023 复合增速达 63%,表明全球 AI 芯片市场

40、规模保持高速增长。3、性能与生态构筑性能与生态构筑 AI 算力芯片高壁垒算力芯片高壁垒 评价 AI 芯片的指标主要包括算力、功耗、面积、精度、可扩展性等,其中算力、功耗、面积(PPA)是评价 AI 芯片性能的核心指标:算力算力:衡量 AI 芯片算力大小的常用单位为 TOPS 或者 TFLOS,两者分别代表芯片每秒能进行多少万亿次定点运算和浮点运算,运算数据的类型通常有整型 8 比特(INT8)、单精度 32 比特(FP32)等。AI 芯片的算力越高,代表它的运算速度越快、性能越强。功耗功耗:功耗即芯片运行所需的功率,除了功耗本身,性能功耗比是综合衡量芯片算力和功耗的关键指标,它代表每瓦功耗对应

41、输出算力的大小。面积面积:芯片的面积是成本的决定性因素之一,通常来讲相同工艺制程之下,芯片面积越小良率越高,芯片成本越低。此外,单位芯片面积能提供的算力大小,亦是衡量 AI 芯片成本的关键指标之一。除 PPA 之外,运行在 AI 芯片上的算法输出精度、AI 应用部署的可扩展性与灵活性,均为衡量 AI 芯片性能的指标。15/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 英伟达的 GPGPU 是全球应用最为广泛的 AI 芯片,决定其性能的硬件参数主要包括:微架构、制程、CUDA 核数、Tensor 核数、频率、显存容量、显存带宽等。其中,微架构即 GPU 的硬件电

42、路设计构造的方式,不同的微架构决定了 GPU 的不同性能,作为英伟达 GPU 的典型代表,V100、A100、H100 GPU 分别采用 Volta、Ampere、Hopper 架构;CUDA 核是 GPU 内部主要的计算单元;Tensor 核是进行张量核加速、卷积和递归神经网络加速的计算单元;显存容量和带宽是决定 GPU 与存储器数据交互速度的重要指标。除除 GPU 硬件之外,与之配套的软件开发体系亦是生态的重要组成部分硬件之外,与之配套的软件开发体系亦是生态的重要组成部分。GPU 的生态包括底层硬件、指令集架构、编译器、API、基础库、顶层算法框架和模型等,英伟达于 2006 年发布的 C

43、UDA 平台是当今全球应用最为广泛的 AI 开发生态系统。通用 GPU 与 CUDA 组成的软硬件底座构成了英伟达引领 AI计算的根基,当前全球主流深度学习框架均使用 CUDA 平台。16/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 生态构建计算壁垒,国产生态构建计算壁垒,国产 GPU 厂商初期兼容厂商初期兼容 CUDA,长期仍需构筑自身软硬件生态,长期仍需构筑自身软硬件生态。由于当前全球主流深度学习框架均使用 CUDA 平台进行开发,国产 GPU 可以通过兼容 CUDA 的部分功能,快速打开市场,减少开发难度和用户移植成本。然而,CUDA 本身涵盖功能非常

44、广泛,且许多功能与英伟达GPU 硬件深度耦合,包含了许多英伟达 GPU 的专有特性,这些特性并不能在国产 AI 芯片上全部体现。因此,长期来看国产 GPU 厂商仍需通过提升自身的软硬件实力,构筑属于自己的软硬件生态。4、国产国产 AI 算力芯片算力芯片正起星星之火正起星星之火 全球全球 AI 芯片市场被英伟达垄断,然而国产芯片市场被英伟达垄断,然而国产 AI 算力芯片正起星星之火算力芯片正起星星之火。目前,国内已涌现出了如寒武寒武纪纪、海光信息海光信息等优质的 AI 算力芯片上市公司,非上市 AI 算力芯片公司如沐曦沐曦、天数智芯天数智芯、壁仞科技壁仞科技等亦在产品端有持续突破。5、自主可控受

45、高度重视,国产自主可控受高度重视,国产 AI 算力芯片迎算力芯片迎“芯芯“机遇机遇 加快实现高水平科技自立自强,是推动高质量发展的必由之路。结合前期数字中国建设规划落地、浪潮浪潮集团集团被美国商务部列入”实体清单“等事件,我们认为,国产 AI 算力芯片迎来发展“芯“机遇,自主可控亟待加速。17/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 自主可控受高度重视,高水平科技亟需自立自主可控受高度重视,高水平科技亟需自立自强自强。国家相关部门在“两会”期间组建国家数据局,负责统筹推进数字经济发展、推进数据基础设施布局建设等任务,有望加速推进数字中国建设落地;重组科技

46、部,并组建中央科技委员会,亦有望加速推动国内高水平科技实现自立自强。AI 算力芯片作为数字中国的算力基础,国产突破势在必行,国产 AI 算力芯片迎来发展”芯“机遇。数字中国建设对数字中国建设对 AI 芯片国产化提出新要求芯片国产化提出新要求。在 2 月 27 日印发的数字中国建设整体布局规划中,提出要夯实数字基础设施和数据资源体系“两大基础”,我们认为,数字中国基础设施的建设有望拉动以数据中心、超算中心、智能计算中心为代表的算力基础设施建设,从而带动服务器与 AI 算力芯片的需求快速增长。同时,规划提出要构筑自立自强的数字技术创新体系,上游 AI 芯片作为算力基础,自主可控需求凸显,数字中国建

47、设对 AI 芯片国产化提出新要求。浪潮集团被列入浪潮集团被列入“实体清单实体清单“,AI 芯片国产化进程有望加速芯片国产化进程有望加速。当地时间 3 月 2 日,美国商务部将浪潮集浪潮集团团、龙芯中科龙芯中科等 37 个实体列入“实体清单“,扩大对浪潮等中国企业的出口禁令。浪潮集团等公司被列入“实体清单”,再度敲响了中国 AI 产业发展的警钟,我们不但要加大数字基础设施建设,AI 算力芯片的自主可控推进也势在必行。六六、产业瓶颈及突破路径产业瓶颈及突破路径 1、算力是制约中国发展大模型的主要瓶颈算力是制约中国发展大模型的主要瓶颈 算力是制约中国发展以算力是制约中国发展以 ChatGPT 为代表

48、的大模型主要瓶颈之一为代表的大模型主要瓶颈之一。据 OpenAI,大模型训练所需算力每3-4 个月增长 1 倍,增速远超摩尔定律(18-24 个月/倍)。随着 GPT-4 等下一代大模型出现,算力需求还有望进一步大幅增长。当前美国对华出口限制,主要造成中国先进工艺发展短期受限,国产替代方案或推高大模型训练成本/时间两大影响。(1)先进工艺对提升芯片性能至关重要,中国先进工艺对提升芯片性能至关重要,中国大陆发展短期受限大陆发展短期受限 发展先进制程意义在于持续提升晶体管密度,提升芯片性能发展先进制程意义在于持续提升晶体管密度,提升芯片性能,降低功耗降低功耗。根据 WikiChip,台积电 5nm

49、芯片每平方毫米晶体管数量是 10nm3.3 倍,16nm5.9 倍,3nm 晶体管密度有望比 5nm 提升 70%,性能提升 11%,功耗降低 27%。美国限制 16/14nm 及以下先进逻辑工艺技术及设备向中国出口,对中国先进制程短期发展造成较大阻力。进入 3nm 制程以下,目前主流 FinFET 将走向物理极限,GAAFET 将成为主流技术,但美国对中国禁售相关 EDA 软件。同时,荷兰 EUV 及先进 DUV 光刻设备目前均无法对中国出口。(2)A100 进口限制阻碍大模型发展,国内替代方案或推高成本进口限制阻碍大模型发展,国内替代方案或推高成本 22 年 8 月美国限制英伟达、AMD

50、对华出口高端 GPU 芯片,尽管后来有替代版本 A800 推出,但由于对高速互联总线的带宽做部分裁剪,在使用性能和功耗上面仍与 A100 有部分差距。目前 H100 性能是A100 的 4.5 倍,而 A800 理论性能相比 A100 降低约 1/3,随着算力需求不断增加,国内由于 A100 以上芯片的进口限制,导致大模型训练时间/成本或显著提升,客观上阻碍了我国大模型的发展。因中国企业进行 14nm 以下半导体代工,受到技术及设备限制,及美国限制海外代工企业为中国设计企业生产性能超过 A100 的芯片,短期内,中国芯片公司能够生产超过 A100 的 AI 芯片的难度也较高。2、突破路径、突破

51、路径 18/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告(1)异构计算:后摩尔时代,加速实现能源效率提升异构计算:后摩尔时代,加速实现能源效率提升 异构集合助推全球计算芯片快速发展异构集合助推全球计算芯片快速发展。异构计算从后端制造创新出发,充分利用计算资源的并行和分布计算技术,将不同制程和架构、不同指令集、不同功能硬件进行组合,成为解决算力瓶颈更为经济的一种方式。目前比较常见 AI 芯片异构有以英伟达 Grace Hopper 为代表的 CPU+GPU 路线,以 Waymo 为代表的 CPU+FPGA 路线以及以 Mobileye EyeQ5 芯片和地平线征

52、程系列为代表的 CPU+ASIC 路线。回避先进制程瓶颈,回避先进制程瓶颈,AMD 异构集合计算另辟蹊径带来算力突破异构集合计算另辟蹊径带来算力突破。2011 年 AMD 率先推出 APU(Accelerated Processing Unit,加速处理器)产品,将中央处理器和独显核心做在一个晶片上,同时具有高性能处理器和最新独立显卡的处理性能。在 CPU+GPU 的异构技术路线上,AMD 相关产品为软件开发者带来前所未有的灵活性,能够任意采用最适合的方式开发新的应用。目前最新的 AMD MI200系列加速器采用多种解决方案,包括 ATOS Bull Sequana X410-A52U1N2S

53、(双 CPU+四 GPU)、戴尔PowerEdge R7525(双 CPU+三 GPU)、技嘉 G262-Z00(双 CPU+四 GPU)、HPE Cray EX235a(单 CPU+四 GPU)等。19/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 从从 MI250 到到 MI300:异构:异构+先进封装先进封装+工艺合力推进计算效率提升工艺合力推进计算效率提升。MI250 加速器是 AMD 第一款ExaScale 百亿亿次(10 的 18 次方)级别加速卡产品。在芯片架构方面,MI250 由 6nmGPU 组成,并采用三种创新架构提升芯片加速性能:针对高性

54、能计算和 AI 训练等特殊领域做了性能的加强;采用Chiplet 级封装,使得存储芯片更接近于计算芯片;采用传统的电源管理等芯片来优化能源效率。通过创新的架构,MI250 实现了 HPC 和 AI 节点的工作效率 12 倍的提升。而 MI300 则采用更为先进的5nm 工艺制程,并在架构方面实现了全方位的升级:采用底部堆叠晶圆与缓存、顶部堆叠 CPU 与 GPU的 3D 封装技术;在 CPU 与 GPU 之间采用统一的存储架构来存取数据,解决传统 CPU+GPU 集成面临缓存数据无法共享的问题,大大提升运算效率。基于架构的创新、Chiplet 以及 3D 封装技术,AMDMI300 相较于 M

55、I250 实现芯片性能与能效 8x/5x 的提升,其提升速度大幅领先于业界平均水平。国内多核异构计算正当时,目前用在数据中心、自动驾驶偏多国内多核异构计算正当时,目前用在数据中心、自动驾驶偏多。目前国内从事异构计算相关领域的芯片公司包括寒武纪寒武纪、海思海思、芯动科技芯动科技、燧原科技燧原科技、天数智芯天数智芯、中科驭数中科驭数、云豹智能云豹智能等,除数据中心外,异构计算还多用于智能驾驶领域。面向 L3 级及以上等级自动驾驶车辆,单一芯片难以满足诸多接口和算力需求,需采用多核异构计算芯片。目前主流的自动驾驶芯片架构有“CPU+GPU+ASIC”、“CPU+FPGA”和“CPU+ASIC”三种,

56、是针对汽车自动驾驶等级提升带来数据体量快速膨胀的重要可行解决方案,国内厂商包括华为华为、地平线地平线等。(2)先进封装:助力超越摩尔定律,国内公司积极布局先进封装:助力超越摩尔定律,国内公司积极布局 2.5/3D 等领域等领域 产业将从产业将从 2.5D 逐步走向逐步走向 3D 封装,先进封装助力高性能计算芯片实现超越摩尔定律封装,先进封装助力高性能计算芯片实现超越摩尔定律。高性能计算领域,先进封装是超越摩尔定律的一项重要路径,其能提供更高的系统集成度与芯片连接密度,芯片系统将持续实现性能提升,同时兼顾功耗和面积。目前行业正从芯片/Chiplet 在平面上通过中介层、硅桥、高密度 RDL 等方

57、式连接的 2.5D 封装,逐步走向把存储、计算芯片在垂直维度进行堆叠的 3D 封装。我们看到 2.5D/3D 封装领域主要方案提供者为:台积电台积电(3D Fabric 平台),英特尔英特尔(EMIB/Foveros)、三三星星(3DTSV/X-Cube)、日月光日月光(VIPack)等。20/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 长电科技等国内公司已在量产长电科技等国内公司已在量产 2.5D 封装领域实现初步突破,未来将逐步进入封装领域实现初步突破,未来将逐步进入 3D 封装领域封装领域。2.5/3D 封装核心在于以微小线宽距和微小中心距的微凸点为特

58、点的高密度中介层互联,包括 TSV(硅通孔)、RDL(重布线堆叠)、FO interposer(扇出型中介)、嵌入式芯片基板。我们看到国内公司正在相关技术方面取得初步突破。长电科技 2022 年已突破带 2.5D 硅通孔 MCM 的大尺寸 FCBGA 技术,并进入小量产。未来其有望在 2.5D 封装领域逐步成熟,并走向 3D 封装领域。通富微电多层堆叠 NAND Flash及 LPDDR 封装实现稳定量产,并于 2022 年完成基于 TSV 技术的 3D SDRAM 封装开发。设备方面,封装设备国产替代空间广阔,测试设备长期受益于设备方面,封装设备国产替代空间广阔,测试设备长期受益于 Chip

59、let 等趋势等趋势。当前后道封装设备主要由 Besi、Disco、K&S 等公司占据,国产化率较低。我们看到光力科技光力科技子公司 ADT、LP 及 LPB 可提供涵盖传统封装及先进封装领域的划片机产品,大族激光可提供半导体激光切割设备。此外,Chiplet 技术可将不同工艺的小芯片集成,提升芯片系统的良率及降低成本,正在成为行业趋势。我们认为未来成熟的 Chiplet 替代传统 SoC 方案,或将提升模拟、数模混合等测试机需求,华峰测控华峰测控在积极布局。七七、产业链及相关企业产业链及相关企业 1、产业链概况、产业链概况 目前,我国算力产业链已经初步形成,涵盖由设施、设备、软件供应商、网络

60、运营商构成的上游产业,由基础电信企业、第三方数据中心服务商、云计算厂商构成的中游产业,由互联网企业、工业企业以及政府、金融、电力等各行业用户构成的下游产业。当前,算力产业主要包含云计算、IDC、人工智能等细分产业;通信产业主要包括基站、接入网和核心网等细分产业。随着信息通信技术从云网融合向算网一体迈进,算力和网络产业的边界日益模糊,形成以“算+网+协同”为主线的算力网络产业格局,上游为底层硬件基础设施,中游为算力网络相关平台、服务及关键技术,下游为赋能的应用场景及最终用户,产业链关键环节如下图所示。21/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 2、相关分

61、析、相关分析 当前,我国算力供给水平大幅提升,先进计算创新成果涌现。算力产业加速壮大升级,我国已经形成体系较完整、规模体量庞大、创新活跃的计算产业,在全球产业分工体系中的重要性日益提升。我国计算产业规模约占电子信息制造业的 20%,规模以上企业达 2300 余家。整个产业链来看,运营商涉及算力网络产业链上、中、下游多个环节,已在网络领域拥有不可复制的业务优势,因此站在运营商视角,算力网络建设的核心在于“泛在高品质的算力”和“灵活强协同的调度”。海量数据集中化处理、分布化计算需求爆发式增长,数据中心和边缘计算行业是实现泛在高品质算力的关键;算网业务的实现需要算力和网络以一体化形态对外提供服务,具

62、备智能化编排管理能力的算网大脑是支撑灵活强协同调度的核心。我国算力赋能效应不断激发,智改数转进入纵深发展。算力深度融入互联网、电信、金融、制造等下游行业,为各行业各领域的智能化改造和数字化转型提供支撑。算力助推信息消费持续扩大升级,虚拟现实与元宇宙有望成为推动算力下一个增长阶段的驱动力。数字经济时代,算力不仅是关键生产力,也将成为普遍应用。随着算力基础设施建设的推进,算力应用的新模式、新业态正加速涌现,算力深度融入制造、交通、教育、航空航天、金融、传媒等更多行业,同时,算力调度、算力管理、算力交易也成为业界探索的重点。2022 年 3 月,工业和信息化部正式公布首批国家新型数据中心典型案例名单

63、,共有 32 个大型以上数据中心和 12 个边缘数据中心入选。3、重点重点公司公司梳理梳理(1)戴尔:全球服务器龙头,提供完整戴尔:全球服务器龙头,提供完整 AI 架构与架构与方案方案 戴尔以生产、设计、销售家用以及办公室电脑而闻名,生产与销售服务器、数据储存设备、网络设备等。2016 年 9 月,EMC Corporation 和戴尔公司合并,新公司将被命名为戴尔科技(Dell Technologies)。新公司营业重点将转向云服务,并推进服务器及存储领域整合。22/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 戴尔科技集团可以提供完整的戴尔科技集团可以提供

64、完整的 AI 基础架构、基础架构、AI 平台就绪解决方案和平台就绪解决方案和 AI 行业应用行业应用。AI 基础架构包括高性能 AI 训练服务器、AI 推理服务器、AI 边缘计算、高性能 AI 存储系统 PowerScale、DPS 数据保护解决方案和数据中心网络。AI 平台就绪解决方案则包括基于 CPU、IPU、GPU 的 AI 就绪解决方案,GPU分布式训练自动化实现,Graphcore IPUAI 专用芯片,NVAIE,GPU 虚拟化,AIaaS 平台和 OMNIA 开源社区。(2)浪潮:浪潮:AI 服务器市占率稳居榜首服务器市占率稳居榜首 浪潮信息是全球领先的新型浪潮信息是全球领先的新

65、型 IT 基础架构产品、方案及服务提供商基础架构产品、方案及服务提供商。公司是全球领先的 AI 基础设施供应商,拥有业内最全的人工智能计算全堆栈解决方案,涉及训练、推理、边缘等全栈 AI 场景,构建起领先的 AI 算法模型、AI 框架优化、AI 开发管理和应用优化等全栈 AI 能力,为智慧时代提供坚实的基础设施支撑。生产算力方面生产算力方面,公司拥有业内最强最全的 AI 计算产品阵列,业界性能最好的 Transformer 训练服务器NF5488、全球首个 AI 开放加速计算系统 MX1、自研 AI 大模型计算框架 LMS。聚合算力层面聚合算力层面,公司针对高并发训练推理集群进行架构优化,构建

66、了高性能的 NVMe 存储池,深度优化了软件栈,性能提升3.5 倍以上。调度算力层面调度算力层面,浪潮信息 AIstation 计算资源平台可支持 AI 训练和推理,是业界功能最全的 AI 管理平台;同时,浪潮信息还有自动机器学习平台 AutoML Suite,可实现自动建模,加速产业化应用。(3)中科曙光:我国高性能计算、智能计算领军企业中科曙光:我国高性能计算、智能计算领军企业 中科曙光作为我国核心信息基础设施领军企业中科曙光作为我国核心信息基础设施领军企业,在高端计算、存储、安全、数据中心等领域拥有深厚的技术积淀和领先的市场份额,并充分发挥高端计算优势,布局智能计算、云计算、大数据等领域

67、的技术研发,打造计算产业生态,为科研探索创新、行业信息化建设、产业转型升级、数字经济发展提供了坚实可信的支撑。23/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 依托先进计算领域的先发优势和技术细节,中科曙光全面布局智能计算依托先进计算领域的先发优势和技术细节,中科曙光全面布局智能计算,完成了包括 AI 核心组件、人工智能服务器、人工智能管理平台、软件等多项创新,构建了完整的 AI 计算服务体系。并积极响应时代需求,在智能计算中心建设浪潮下,形成了 5A 级智能计算中心整体方案。目前,曙光 5A 智能计算中心已在广东、安徽、浙江等地建成,江苏、湖北、湖南等地已

68、进入建设阶段,其他地区也在紧张筹备和规划中。(4)海光信息:支持全精度,海光信息:支持全精度,GPU 实现规模量产实现规模量产 海光信息主要从事高端处理器、加速器等计算芯片产品和系统的研究、开发,主要产品包括海光 CPU和海光 DCU。2018 年 10 月,公司启动深算一号 DCU 产品设计,海光 8100 采用先进的 FinFET 工艺,典型应用场景下性能指标可以达到国际同类型高端产品的同期水平。2020 年 1 月,公司启动 DCU 深算二号的产品研发。海光海光 DCU 性能强大性能强大。海光 DCU 基于大规模并行计算微结构进行设计,不但具备强大的双精度浮点计算能力,同时在单精度、半精

69、度、整型计算方面表现同样优异,是一款计算性能强大、能效比较高的通用协处理器。海光 DCU 集成片上高带宽内存芯片,可以在大规模数据计算过程中提供优异的数据处理能力。(5)华为海思:五大系列发挥产业集成优势华为海思:五大系列发挥产业集成优势 海思是全球领先的海思是全球领先的 Fabless 半导体与器件设计公司半导体与器件设计公司。前身为华为集成电路设计中心,1991 年启动集成电路设计及研发业务,为汇聚行业人才、发挥产业集成优势,2004 年注册成立实体公司,提供海思芯片对外销售及服务。海思致力于为智慧城市、智慧家庭、智慧出行等多场景智能终端打造性能领先、安全可靠的半导体基石,服务于千行百业客

70、户及开发者。海思产品覆盖智慧视觉、智慧 IoT、智慧媒体、智慧出行、显示交互、手机终端、数据中心及光收发器等多个领域。海思半导体旗下的芯片共有五大系列海思半导体旗下的芯片共有五大系列,分别是用于智能设备的麒麟 Kirin 系列;用于数据中心的鲲鹏Kunpeng 系列服务 CPU;用于人工智能的场景 AI 芯片组昇腾 Ascend 系列 SoC;用于连接芯片(基站 24/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 芯片 Tiangang、终端芯片巴龙 Balong);以及其他专用芯片(视频监控、机顶盒芯片、智能电视、运动相机、物联网等芯片)。(6)寒武纪:少数

71、全面掌握寒武纪:少数全面掌握 AI 芯片技术的企业之一芯片技术的企业之一 寒武纪主营业务是应用于各类云服务器、边缘计算设备、终端设备中人工智能核心芯片的研发和销售。公司的主要产品包括终端智能处理器 IP、云端智能芯片及加速卡、边缘智能芯片及加速卡以及与上述产品配套的基础系统软件平台。寒武纪是目前国际上少数几家全面系统掌握了通用型智能芯片及其基础系统软件研发和产品化核心技术的企业之一,能提供云边端一体、软硬件协同、训练推理融合、具备统一生态的系列化智能芯片产品和平台化基础系统软件。2022 年 3 月,寒武纪正式发布了新款训练加速卡“MLU370-X8”,搭载双芯片四芯粒封装的思元 370,集成

72、寒武纪 MLU-Link 多芯互联技术,主要面向 AI 训练任务。七、细分受益环节七、细分受益环节 GPT-4 多模态大模型将引领新一轮 AI 算力需求的爆发,超大规模数据中心及超算数据中心作为泛 AI 领域的重要基础设施支持,其数量、规模都将相应增长,带动整个算力基础设施产业链(如高端服务器/交换机、CPO 技术、硅光、液冷技术)的渗透加速。同时在应用侧,Copilot 的推出也将加速 AI 在办公领域的赋能,给相关细分环节带来发展机会。以下我们具体分析依托 AI 算力发展带来的细分受益环节。1、服务器、服务器/交换机交换机 算力需求带动上游硬件设备市场规模持续增长,高规格产品占比提升算力需

73、求带动上游硬件设备市场规模持续增长,高规格产品占比提升。伴随着数据流量持续提升,交换机作为数据中心必要设备,预计全球数据中心交换机保持稳定增长。2021 年全球数据中心交换机市场规模为 138 亿美元,预计到 2031 年将达 246 亿美元,2022 年至 2031 年复合年增长率为 5.9%。多元 25/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 开放的 AI 服务器架构可以为人工智能发展提供更高的性能和可扩展性的 AI 算力支撑,随着 AI 应用的发展,高性能服务器数量有望随之增长,带动出货量及服务器单价相应提升。根据 IDC 报告,2022Q3,20

74、0/400GbE 交换机市场收入环比增长 25.2%,100GbE 交换机收入同比增长 19.8%,高速部分呈现快速增长。2、光模块、光模块/光芯片光芯片 算力需求提升推动算力基础设施升级迭代,传统可插拔光模块技术弊端和瓶颈开始显现算力需求提升推动算力基础设施升级迭代,传统可插拔光模块技术弊端和瓶颈开始显现。首先,功耗过高,AI 技术的加速落地,使得数据中心面临更大的算力和网络流量压力,交换机、光模块等网络设备升级的同时,功耗增长过快。以博通博通交换机芯片为例,2010 年到 2022 年交换机芯片速率从 640G 提升到51.2T,光模块速率从 10G 迭代到 800G。速率提升的同时,交换

75、机芯片功耗提升了约 8 倍,光模块功耗提升了 26 倍,SerDes 功耗提升了 25 倍。其次,交换机端口密度难以继续提升,光模块速率提升的同时,自身体积也在增大,而交换机光模块端口数量有限。另外,PCB 材料也遭遇瓶颈,PCB 用于传输高速电信号,传统可插拔光模块信号传输距离长、传输损失大,更低耗损的可量产 PCB 材料面临技术难题难以攻克。NPO/CPO 技术有望成为高算力背景下的解决方案技术有望成为高算力背景下的解决方案。CPO(光电共封装技术)是一种新型的高密度光组件技术,将交换芯片和光引擎共同装配在同一个 Socketed(插槽)上,形成芯片和模组的共封装。CPO 可以取代传统的插

76、拔式光模块技术,将硅光电组件与电子晶片封装相结合,从而使引擎尽量靠近ASIC,降低 SerDes 的驱动功耗成本,减少高速电通道损耗和阻抗不连续性,实现更高密度的高速端口,提升带宽密度,大幅减少功耗。CPO 技术的特点主要有:CPO 技术缩短了交换芯片和光引擎之间的距离(控制在 57cm),使得高速电信号在两者之间实现高质量传输,满足系统的误码率(BER)要求;CPO 用光纤配线架取代更大体积的可插拔模块,系统集成度得到提升,实现更高密度的高速端口,提升整机的带宽密度;降低功耗,根据锐捷网络招股说明书,采用 CPO 技术的设备整机相比于采用可插拔光模块技术的设备,整机功耗降低 23%。高高算力

77、背景下,数据中心网络架构升级带动光模块用量扩张及向更高速率算力背景下,数据中心网络架构升级带动光模块用量扩张及向更高速率迭代迭代。硅光、相干及光电共封装技术(CPO)等具备高成本效益、高能效、低能耗的特点,被认为是高算力背景下的解决方案。CPO将硅光电组件与电子晶片封装相结合,使引擎尽量靠近 ASIC,减少高速电通道损耗,实现远距离传送。目前,头部网络设备和芯片厂商已开始布局硅光、CPO 相关技术与产品。3、数据中心、数据中心 IDC 数据中心数据中心:“东数西算”工程正式全面启动一周年,从系统布局进入全面建设阶段。随着全国一体化算力网络国家枢纽节点的部署和“东数西算”工程的推进,算力集聚效应

78、初步显现,算力向规模化集约化方向加速升级,同时数据中心集中东部的局面得到改善,西部地区对东部地区数据计算需求的支撑作用越发明显。我们认为政策面推动供给侧不断出清,AI 等应用将带动新一轮流量需求,有望打破数据中心近两年供给过剩的局面,带动数据中心长期发展。液冷温控液冷温控:随云计算、AI、超算等应用发展,数据中心机柜平均功率密度数预计将逐年提升,高密度服务器也将被更广泛的应用于数据中心中。数据中心液冷技术能够稳定 CPU 温度,保障 CPU 在一定范围内进行超频工作不会出现过热故障,有效提升了服务器的使用效率和稳定性,有助于提高数据中心单位空间的服务器密度,大幅提升数据中心运算效率,液冷技术有

79、望在超高算力密度场景下持续渗透。4、企业通信企业通信 26/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 3 月 16 日晚微软正式宣布推出 Microsoft 365 Copilot,将大型语言模型(LLMs)的能力嵌入到 Office办公套件产品中。基于 GPT-4 的 Copilot 以其视频+图文的多模态分析以及更强大生成与理解能力,可更深度、全面发挥视频会议 AI 助理功能,比如可以确定目标捕捉发言总结某人谈话要点、全面理解会议主要内容,并自动整理及发送会议纪要等。随着 Copilot 更强大功能对微软办公套件的加持,有望带动 Teams 需求的增长

80、,中国企业通信终端厂商将作为微软重要的硬件合作伙伴有望深度受益。八八、产业发展、产业发展前瞻前瞻 1、基础设施支持层面:基础设施支持层面:云商云商/运营商运营商积极积极推进推进 AI 领域算力基础设施建设领域算力基础设施建设 北美云厂商资本支出向技术基础设施和新数据中心架构倾斜北美云厂商资本支出向技术基础设施和新数据中心架构倾斜。22Q4 亚马逊资本支出主要用于技术基础设施的投资,其中大部分用于支持 AWS 业务增长与支持履行网络的额外能力。预计未来相关投资将延续,并增加在技术基础设施方面的支出。谷歌指引 2023 年资本开支与 2022 年基本持平,其中技术基础设施有所增加,而办公基础设施将

81、减少。Meta2022 年资本开支为 314.3 亿美元,同比增长 69.3%,但同时 Meta 略微调低其 2023 年资本开支预期至 300-330 亿美元(此前预期为 340-370 亿美元),主要原因系减少数据中心建设的相关支出,转向新的更具成本效益的、同时支持 AI 和非 AI 工作量的数据中心新架构。国内三大运营商积极布局算力网络,资本支出向新国内三大运营商积极布局算力网络,资本支出向新兴业务倾斜兴业务倾斜。电信运营商作为数字基座打造者,运营商数字业务板块成为收入增长的主要引擎,近几年资本支出由主干网络向新兴业务倾斜。中国移动2022 年全年算力网络投资 480 亿元,占其总资本开

82、支的 39.0%。2022Q3,中国移动算力规模达到7.3EFLOPS,并计划在 2025 年底达到 20EFLOPS 以上。中国电信产业数字化资本开支占比同比上升9.3pc,算力总规模计划由 2022 年中的 3.1EFLOPS 提升至 2025 年底的 16.3EFLOPS。中国联通 2022年预估算力网络资本开支达到 145 亿,同比提升 43%。作为作为算力基础设施建设的主力军,三大运营商目前已经进行前瞻性的基础设施布局算力基础设施建设的主力军,三大运营商目前已经进行前瞻性的基础设施布局。通信运营商自身拥有优质网络、算力、云服务能力,同时具备天然的产业链优势,依靠 5G+AI 技术优势

83、,为下游客户提供 AI 服务能力,是新型信息服务体系中重要的一环,助力千行百业数字化转型。在移动网络方面,中国运营商已建设覆盖全国的高性能高可靠 4/5G 网络;在固定宽带方面,光纤接入(FTTH/O)端口达到 10.25 亿个,占比提升至 95.7%;在算力网络方面,运营商在资本开支结构上向算力网络倾斜,提升 27/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告 服务全国算力网络能力。在 AI 服务能力方面,加快 AI 领域商业化应用推出,发挥自身产业链优势,助力千行百业数字化转型。2、技术技术发展发展层面:层面:算力需求带动数据中心架构及技术加速升级算力需求

84、带动数据中心架构及技术加速升级(1)数据中心呈现超大规模发展趋势数据中心呈现超大规模发展趋势 超大规模数据中心,即 Hyperscale Data Center,与传统数据中心的核心区别在于超大规模数据中心具备更强大的可扩展性及计算能力。规模上,超级数据中心可容纳的规模要比传统数据中心大得多,可以容纳数百万台服务器和更多的虚拟机;性能上,超级数据中心具有更高的可扩展性和计算能力,能够满足数据处理数量和速率大幅提升的需求。Statista 数据显示,全球超大规模数据中心的数量从 2015 年的 259 个,提升到 2021 年的 700 个。根据Precedence Research 的报告显示

85、,全球超大规模数据中心市场规模在 2021 年为 620 亿美元,到 2030年将达到 5930 亿美元,预计在 2022-2030 年间以 28.52%的复合增长率(CAGR)增长。海内外云商均具备自己的超大规模数据中心海内外云商均具备自己的超大规模数据中心。Structure Research 在其报告中测算,到 2022 年全球超大规模自建数据中心总容量达到 13177 兆瓦(MW)。全球四大超大规模数据中心平台AWS、谷歌云、Meta 和微软 Azure约占该容量的 78%。全球占主导地位的超大规模数据中心企业仍然是亚马逊、谷歌、Meta 和微软,在中国,本土企业阿里巴巴阿里巴巴、华为

86、华为、百度百度、腾讯腾讯和金山云金山云都是领先的超大规模数据中心企业。28/29 2023 年年 4 月月 3 日日 行业行业|深度深度|研究报告研究报告(2)IB 网络技术将更广泛应用于网络技术将更广泛应用于 AI 训练超算领域训练超算领域 超级数据中心是具有更大规模和更高计算能力的数据中心超级数据中心是具有更大规模和更高计算能力的数据中心。随着对数据处理数量和速率需求的提升,数据中心的可扩展性需求也在迅速提升。超级数据中心在规模和性能上较传统数据中心都有了大幅升级,能够满足超高速度扩展,以满足超级需求的能力。InfiniBand 网络满网络满足大带宽和低时延的需求,成为超算中心的主流足大带

87、宽和低时延的需求,成为超算中心的主流。InfiniBand(简称 IB)是一个用于高性能计算的计算机网络通信标准,主要应用于大型或超大型数据中心。IB 网络的主要目标是实现高的可靠性、可用性、可扩展性及高性能,且能在单个或多个互联网络中支持冗余的 I/O 通道,因此能够保持数据中心在局部故障时仍能运转。相比传统的以太网络,带宽及时延都有非常明显的优势。(一般InfiniBand 的网卡收发时延在 600ns,而以太网上的收发时延在 10us 左右,英伟达推出的 MetroX-3提升长距离 InfiniBand 系统带宽至 400G)。作为未来算力的基本单元,高性能的数据中心越来越多的采用 In

88、finiBand 网络方案,尤其在超算中心应用最为广泛,成为 AI 训练网络的主流。29/29 2023 年年 4 月月 3 日日行业行业|深度深度|研究报告研究报告 3、政策环境层面:工业和信息化部持续推进算力产业工作、政策环境层面:工业和信息化部持续推进算力产业工作持续推动算力基础设施建设持续推动算力基础设施建设。统筹布局绿色智能的算力基础设施,推进一体化大数据中心体系建设,加速打造数网协同、数云协同、云边协同、绿色智能的多层次算力设施体系,实现算力水平的持续显著提升,夯实数字经济发展“算力底座”。聚力推进核心关键技术攻关聚力推进核心关键技术攻关。充分发挥我国的体制优势和市场优势,提升自主

89、创新能力,加快高端芯片、新型数据中心、超算等领域研发突破,加强先进计算、算网融合等技术布局,推动算力产业向高效、绿色方向发展。不断激发算力“引擎”赋能效应不断激发算力“引擎”赋能效应。深入挖掘算力在数字政府、工业互联网、车联网、金融科技等创新应用场景下的融合应用,提高算力在医疗、交通、教育等传统行业的应用水平,加快推进算力在更多生产生活场景的应用落地。九、参考研报九、参考研报 1.民生证券-电子行业专题研究:国产 AI 算力芯片全景图2.华泰证券-电子行业专题研究:中国如何解决 AI 算力瓶颈问题3.兴业证券-计算机行业周报:AI 算力的产业格局及投资机会4.华西证券-AIGC 行业深度报告(3):ChatGPT 打响 AI 算力“军备战”5.民生证券-计算机行业动态报告:ChatGPT 系列报告,算力“军备竞赛”6.广发证券-通信行业:GPT4 引发新一轮 AI 算力需求爆发,长期拉动流量基础设施需求7.平安证券-计算机行业深度报告:ChatGPT 火爆出圈,AI 算力和行业应用潜力巨大免责声明:以上内容仅供学习交流,不构成投资建议。电话:电话:-18661866邮箱:邮箱:

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(AI算力行业深度:供需格局、产业发展前瞻、产业链及重点公司梳理-230403(29页).pdf)为本站 (淡然如水) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部