上海品茶

计算机行业新型智算中心改造系列报告一:网络成大模型训练瓶颈节点内外多方案并存-240505(24页).pdf

编号:160915 PDF    PPTX 24页 2.88MB 下载积分:VIP专享
下载报告请您先登录!

计算机行业新型智算中心改造系列报告一:网络成大模型训练瓶颈节点内外多方案并存-240505(24页).pdf

1、请务必阅读正文之后的免责声明及其项下所有内容证券研究报告证券研究报告|2022024 4年年5 5月月5 5日日新型智算中心改造系列报告新型智算中心改造系列报告一:一:网络成大模型训练瓶颈,节点内外多方案网络成大模型训练瓶颈,节点内外多方案并存并存行业行业研究研究 行业专题行业专题 计算机计算机 人工智能人工智能投资评级:投资评级:超配(维持评级)超配(维持评级)证券分析师:熊莉021-S0980519030002联系人:艾宪0755-请务必阅读正文之后的免责声明及其项下所有内容摘要摘要AIAI大模型训练和推理拉动智能算力需求快速增长。大模型训练和推理拉动智能算力需求快速增长。a a)模型迭代

2、和数量增长拉动)模型迭代和数量增长拉动AIAI算力需求增长:算力需求增长:从单个模型来看,模型能力持续提升依赖于更大的训练数据量和模型参数量,对应更高的算力需求;从模型的数量来看,模型种类多样化(文生图、文生视频)和各厂商自主模型的研发,均推动算力需求的增长。b b)未来)未来AIAI应用爆发,推理侧算力需求快速增长:应用爆发,推理侧算力需求快速增长:各厂商基于AI大模型开发各类AI应用,随着AI应用用户数量爆发,对应推理侧算力需求快速增长。智算中心从集群走向超级池化智算中心从集群走向超级池化。智算中心是以GPU、AI加速卡等智能算力为核心,集约化建设的新型数据中心;随着大模型普遍进入万亿规模

3、,算力、显存、互联需求再次升级,高速互联的百卡“超级服务器”可能成为新的设备形态,智算中心将走向超级池化阶段,对设备形态、互联方案、存储、平台、散热等维度提出新的要求。网络互联:节点内外多方案并存网络互联:节点内外多方案并存。1 1)节点内)节点内:私有方案以英伟达NVLink为代表,NVLink已经发展至第五代产品,同时支持576个GPU之间的无缝高速通信;开放技术方案以OAM和UBB为主,OCP组织定义了业内通用的AI扣卡模组形态(OAM)-基板拓扑结构(UBB)设计规范。2 2)节点间)节点间:主要方案为Infiniband和RoCEv2;Infiniband网络主要包括InfiniBa

4、nd网卡、InfiniBand交换机、Subnet Management(SM)、连接件组成;RoCEv2网络是一个纯分布式的网络,由支持RoCEv2的网卡和交换机、连接件、流控机制组成。InfiniBand在网络性能、集群规模、运维等方面具备显著优势。投资建议投资建议:AI大模型的参数量和训练数据量的快速增长,对数据中心的计算、存储、网络等提出新的要求,新型智算中心是产业发展趋势;AI大模型需要部署在高速互联的多个AI芯片上,数据样本和模型结构被切分到多张卡或者节点上,卡间或节点间不仅有训练数据通信,还有模型梯度的频繁传递,对智算中心的网络互联提出新的要求,建议关注宝信软件。风险提示风险提示

5、:宏观经济波动、下游需求不及预期、AI伦理风险等。9WbUbZbZfYaVaYbZ6McM7NtRpPpNrNeRoOqNkPqQzR8OmMzQxNtQmPwMnQmM请务必阅读正文之后的免责声明及其项下所有内容智算中心:从集群走向超级池化0101网络互联:节点内外多方案并存0202目录目录投资建议及风险提示0303请务必阅读正文之后的免责声明及其项下所有内容智能算力需求:训练数据量智能算力需求:训练数据量+参数量大幅提升,模型能力参数量大幅提升,模型能力“涌现涌现”训练数据量训练数据量+参数量大幅提升,模型能力参数量大幅提升,模型能力“涌现涌现”。根据2022年谷歌、斯坦福大学和Deepm

6、ind联合发表的Emergent Abilities of Large Language Models,很多新能力在中小模型上线性放大都得不到线性的增长,模型规模必须呈指数级增长并超过某个临界点,新技能才会突飞猛进。同时,模型的参数量和数据量在一定程度下是正相关的,因为:a)在小规模数据上训练模型时,若模型参数量过大,可能出现过拟合情况;b)在大规模数据上训练模型时,若不增加模型参数量,可能造成新的知识无法存放的情况。图1:训练数据大幅提升后,模型能力“涌现”资料来源:Jason Wei等著-Emergent Abilities of Large Language Models-Transac

7、tions on Machine Learning Research(2022)-P4,国信证券经济研究所整理图2:模型参数大幅提升后,模型能力“涌现”资料来源:Jason Wei等著-Emergent Abilities of Large Language Models-Transactions on Machine Learning Research(2022)-P27,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容智能算力需求:大模型训练智能算力需求:大模型训练+推理拉动智能算力需求快速增长推理拉动智能算力需求快速增长大模型训练大模型训练+推理拉动智能算力需求快速增长

8、推理拉动智能算力需求快速增长。a a)模型迭代和数量增长拉动)模型迭代和数量增长拉动AIAI算力需求增长算力需求增长:从单个模型来看,模型能力持续提升依赖于更大的训练数据量和模型参数量,对应更高的算力需求;从模型的数量来看,模型种类多样化(文生图、文生视频)和各厂商自主模型的研发,均推动算力需求的增长。b b)未来)未来AIAI应用爆发,推理侧算力需求快速增长应用爆发,推理侧算力需求快速增长:各厂商基于AI大模型开发各类AI应用,随着AI应用用户数量爆发,对应推理侧算力需求快速增长。图3:全球智能算力快速增长资料来源:中国算力发展指数白皮书(2022年&2023年,中国信通院)、国信证券经济研

9、究所整理图4:中国智能算力快速增长资料来源:2023-2024年中国人工智能计算力发展评估报告(IDC&浪潮信息)、国信证券经济研究所整理0.23 0.45 52.50 00202120222030智能算力(基于FP32计算,ZFLOPS)75155.2259.9414.3497.1616.6812.51117.40200400600800020224202520262027智能算力(基于FP16计算,EFLOPS)请务必阅读正文之后的免责声明及其项下所有内容智算中心:以智算中心:以GPUGPU、AIAI加速卡为核心的新型数据中

10、心加速卡为核心的新型数据中心智算中心是以智算中心是以GPUGPU、AIAI加速卡等智能算力为核心,集约化建设的新型数据中心。加速卡等智能算力为核心,集约化建设的新型数据中心。智算中心为AI大模型训练、推理提供算力支撑,同时为AI应用提供算力服务、数据服务和算法服务;以中国移动推出了NICC新型智算中心为例,可分为“三层两域”:基础设施层:提供计算、存储、网络等硬件资源。智算平台层:作为资源管理核心,提供裸金属、虚机和容器等多样化实例以及细粒度的资源池化能力;搭建算力原生平台提供应用跨架构迁移能力。应用使能层:集成行业主流AI开发框架。智算运维域:负责对底层IaaS进行管理维护,确保系统稳定运营

11、。智算运营域:对接外部客户,提供计量计费、访问、交易等界面,对内根据上层任务进行资源编排调度。图5:中国移动NICC新型智算中心的“三层两域”架构资料来源:中国移动 NICC 新型智算中心技术体系白皮书,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容图6:大模型参数规模增长速度超过摩尔定律,推动智算中心发展资料来源:生成式AI(State of Generative AI 2023)-启明创投、未尽研究-P8、国信证券经济研究所整理智算中心:从集群走向超级池化智算中心:从集群走向超级池化智算中心逐步从智算中心逐步从“集群时期集群时期”走向走向“超级池化时期超级池化时期”。随

12、着AI大模型参数量增长,新型智算中心的建设既要考虑计算、存储、网络三大维度横向协同,也应兼顾软件平台与硬件资源的纵向协同,聚焦于“新互联”、“新算效”、“新存储”、“新平台”、“新节能”。智算中心发展推动力:模型参数量快速增长,对算力、显存和互联提出新的需求。集群时期(2022-2024年):数据及模型出现巨量化趋势,千亿级模型出现,对算力底座和拓展性提出更高要求。设备形态:GPU、AI芯片以扣卡模组为主,服务器形态多为8卡,DPU按需引入解决裸金属管理、存储加速等业务痛点;硬件资源开始按集群的方式部署。互联方案:以服务器节点为界限,节点内采用高速计算总线,节点间采用100G/200G高速无损

13、网络。存储方面:原先独立部署的文件、对象存储逐渐向融合存储演进,提升数据交互效率;平台方面:具备池化算力分配能力,实现底层智算资源的细粒度分配、动态调度和一体化管理;同时,引入分布式并行训练框架提升模型训练效率;散热方面:为配合高算力需求,散热系统逐步从风冷向冷板式液冷过渡。请务必阅读正文之后的免责声明及其项下所有内容智算中心:从集群走向超级池化智算中心:从集群走向超级池化超级池化时期(2025年开始):大模型普遍进入万亿规模,算力、显存、互联需求再次升级,高速互联的百卡“超级服务器”可能成为新的设备形态。设备形态:从单机8卡服务器逐步转化为“超级服务器”,基于存算一体架构的大算力芯片将开始逐

14、步应用。互联方案:内部打造统一的协议实现CPU、GPU、AI芯片、显存、存储等池化资源无缝连接;外部通过GSE等高性能交换网络,达到极高吞吐、极低时延的系统算力。存储方面:在“超级服务器”内支持内存池化技术,对外拓展支持全局统一存储。平台方面:构建基于算力原生平台的跨架构开发、编译、优化环境,屏蔽底层硬件差异,从软件层面最大化使能异构算力融通,以应对日益割裂的智算生态。散热方面:浸没式液冷逐步落地。图7:新型智算中心的发展路径资料来源:中国移动 NICC 新型智算中心技术体系白皮书,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容智算中心:从集群走向超级池化0101网络互联:

15、节点内外多方案并存0202目录目录投资建议及风险提示0303请务必阅读正文之后的免责声明及其项下所有内容图8:模型参数量(及模型训练所需算力)增长显著高于GPU内存和吞吐量的增长资料来源:Rishi等著-On the Opportunities and Risks of Foundation Models-arXiv(2022)-P97、国信证券经济研究所整理网络互联:大模型训练,网络成为网络互联:大模型训练,网络成为AIAI算力瓶颈算力瓶颈分布式并行运算是发展趋势分布式并行运算是发展趋势。AI大模型需要部署在高速互联的多个AI芯片上,主要由于:1)单芯片算力提升的速度明显低于模型参数的增长速

16、率;2)巨量的模型参数和训练数据,已经远超单个AI芯片、单台服务器的计算能力。传统的中小传统的中小AIAI模型模型:训练模式多采用单卡运行或单节点内多卡数据并行,每张卡或节点上都有完整的模型结构,卡间通信主要用于传输训练数据,因此通信需求不频发,带宽通常在几十GB,传统PCIe可满足要求。AIAI大模型大模型:数据样本和模型结构被切分到多张卡或者节点上,卡间或节点间不仅有训练数据通信,还有模型梯度的频繁传递;数据并行(DP):每计算设备(卡或节点)都有一个完整模型,将数据集拆分到多个计算设备同时训练,在反向传播中,各个设备上的梯度进行归约操作求平均,再更新模型参数。模型并行(MP):1)流水线

17、并行(PP):将模型按照“层”拆分为多个Stages放在每个计算设备上,训练过程是逐层顺序计算,通信数据量比DP小,点对点互联即可;2)张量并行(TP):将模型在“层”内进行切分,训练过程中前向和反向传播中都设计Allreduce,通信量大且频繁,通常要求全互联(FC)或交换拓扑(Switch)。图9:不同的分布式并行策略及对应的卡间互联要求资料来源:中国移动NICC新型智算中心技术体系白皮书、国信证券经济研究所整理策略通信模式互联拓扑,带宽需求数据并行DPAllreduce环状或全互联,常规需求,几几十GB/s流水线并行PPP2P点对点相连,常规需求,几十几GB/s张量并行TPAllredu

18、ce环状或全互联,带宽需求高,几百GB/s请务必阅读正文之后的免责声明及其项下所有内容网络互联网络互联-节点内外多种互联协议并存节点内外多种互联协议并存智算中心内部网络互联可以分为节点内互联和节点外互联(此处以服务器为节点),节点内互联包括处理器之间、处理器与外设及存储之间互联,节点外互联主要指服务器之间互联。计算体系多种互联协议:自1978年intel开创x86体系以来,逐步衍生出各种物理特性、传输特性和功能特性不同的互联协议。处理器之间:UPI、CXL、PCIe、NVLink等;处理器与外设及存储之间:Pcie、CXL、NVLink、SATA、SAS、NVMe等;节点之间:Ethernet

19、、IB等。图10:计算体系多种互联协议资料来源:数据中心2030-华为,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容网络互联网络互联-节点内:私有方案以英伟达节点内:私有方案以英伟达NVLinkNVLink为代表为代表大模型场景,私有和开放技术方案并存大模型场景,私有和开放技术方案并存。针对传统传统的中小模型,PCIe技术方案已经非常成熟;面向大模型场景,基于扣卡模组的卡间高速互联方案主要分为私有和开放技术两大类,私有方案以英伟达NVLink为代表,开放技术方案以OAM和UBB为主。私有方案以英伟达私有方案以英伟达NVLinkNVLink为代表。为代表。2014年英伟达发

20、布第一代NVLink,旨在实现GPU芯片间低延迟、高带宽的数据互联,相较于传统PCIe方案,CPU和GPU之间共享数据的速度大幅提升。传统PCIe方案:PCIe由Intel 2001年推出,主要用于连接CPU和各类高速外围设备,采用点对点的连接方式,平均3年迭代一次;在传统PCIe方案中,GPU发出的信号要先传递到PCIe Switch,PCIe Switch中涉及到数据的处理,CPU会对数据进行分发调度,会引入额外的网络延迟,限制了系统性能。NVLink方案:以P100方案为例,拥有4条NVLink,单条NVLink是一个双向接口,包括32个链路,每个方向形成8个差分(采用基于差分信号线的高

21、速串行通信技术),单条NVLink提供40GB/s带宽(通过将多个Sub-Link组成Port,实现GPU之间的快速数据传输),合计提供160GB/s带宽。图11:传统PCIe技术方案资料来源:WikiChip、国信证券经济研究所整理图12:P100 GPU中有4个NVLink 1.0,总聚合带宽达160 GB/s资料来源:WikiChip、国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容图14:NVLink已经发展到第五代资料来源:英伟达官网、国信证券经济研究所整理图13:NVLink拓扑结构发展资料来源:英伟达官网、国信证券经济研究所整理网络互联网络互联-节点内:节点内:

22、NVLinkNVLink已经发展至第五代产品已经发展至第五代产品NVLinkNVLink已经发展至第五代:已经发展至第五代:第一代到第二代的演进主要是互联拓扑的改变,从cube直连变为Switch交换拓扑;第三代在通过增加单卡的NVLink通道数提升点到点(P2P)带宽,第四代通过完善多种协议内容,进一步实现C2C(Chip to Chip)、AI卡间以及服务器节点的统一连接;第五代带宽大幅提升,同时支持576个GPU之间的无缝高速通信。NVSwitchNVSwitch:节点交换架构。:节点交换架构。NVSwitch是一种类似交换机的物理芯片(Asic),通过其接口可以将多个GPU高速互联在一

23、起,实现所有GPU在一个具有全带宽连接集群中协同工作。图15:NVLink向更大带宽、更多Link数迭代资料来源:英伟达官网、国信证券经济研究所整理图16:NVLink Switch迭代情况资料来源:英伟达官网、国信证券经济研究所整理第二代第三代第四代第五代NVLink带宽(单GPU)300GB/s600GB/s900GB/s1,800GB/s单GPU最大Link数6121818支持NVIDIA架构NVIDIA Volta architectureNVIDIA Ampere architectureNVIDIA Hopper architectureNVIDIA Blackwell archi

24、tecture第一代第二代第三代第四代单NVLink Domain内可直连GPU个数Up to 8Up to 8Up to 8Up to 576NVSwitch GPU-to-GPU带宽300GB/s600GB/s900GB/s1,800GB/s加总带宽2.4TB/s4.8TB/s7.2TB/s1PB/s支持NVIDIA架构NVIDIA Volta architectureNVIDIA Ampere architectureNVIDIA Hopper architectureNVIDIA Blackwell architecture请务必阅读正文之后的免责声明及其项下所有内容网络互联网络互联-

25、节点内:开放技术方案以节点内:开放技术方案以OAMOAM和和UBBUBB为主为主开放技术方案:开放技术方案:2019年OCP组织为降低整机厂家集成多家AI芯片的适配难度,发起开放加速器基础设施项目(OAI),定义了业内通用的AI扣卡模组形态(OAM)-基板拓扑结构(UBB)设计规范,以8张OAM为一个整体,进一步定义了8*OAM的Baseboard的主机接口、供电方式、散热方式、管理接口、卡间互联拓扑、Scale Out方式。系统架构系统架构:OAM模块承担起单个GPU节点的AI加速计算能力,通过符合UBB v1.5base规范的基板完成OAM间的7P*8FC(全互联)、6P*8HCM(混合立

26、方互联)等高速互联拓扑实现多OAM数据低延时共享,利用RDMA网络部署实现对外拓展完成集群互联,最大程度上发布OAM计算性能并降低通信带宽限制。AIAI扣卡模组形态(扣卡模组形态(OCP Accelerator ModuleOCP Accelerator Module,OAMOAM):OCP-OAI定义了OAM的结构形态及互联接口,以此促进跨加速器通信的可拓展性。基板拓扑结构(基板拓扑结构(Universal BaseboardUniversal Baseboard,UBBUBB):UBB基板可以承载8个OAM模块,形成一个AI加速计算子系统,尺寸为16.7*21英寸,可以放在19寸、21寸机

27、柜中。图17:OAM的全互联和混合立方互联资料来源:开放加速规范AI服务器设计指南(浪潮信息)、国信证券经济研究所整理图18:UBB硬件布局和关键部件资料来源:开放加速规范AI服务器设计指南(浪潮信息)、国信证券经济研究所整理全互联混合立方互联请务必阅读正文之后的免责声明及其项下所有内容图19:加速比和RDMA技术资料来源:智算中心网络架构白皮书、国信证券经济研究所整理图20:Infiniband网络架构资料来源:智算中心网络架构白皮书、国信证券经济研究所整理网络互联网络互联-节点间:主要方案为节点间:主要方案为InfinibandInfiniband和和RoCEv2RoCEv2RDMARDM

28、A技术是降低卡间通信时间的关键技术。技术是降低卡间通信时间的关键技术。在分布式场景中,整体算力并不是随着智算节点的增长而线性增长,而是存在加速比(通常小于1,由于存在卡间通信时间),RDMA技术可以绕过操作系统内核,直接访问另一台主机内存,从而大幅降低卡间通信时间。主要方案为主要方案为InfinibandInfiniband和和RoCEv2RoCEv2。实现RDMA的方式有Infiniband、RoCEv1、RoCEv2、iWARP,其中RoCEv1已经被v2替代,iWARP使用较少,目前主要方案为Infiniband和RoCEv2。图21:RoCE网络架构资料来源:智算中心网络架构白皮书、国

29、信证券经济研究所整理n 加速比通常小于加速比通常小于1:分布式场景,单次计算时间包括单卡计算时间:分布式场景,单次计算时间包括单卡计算时间+卡间通信时间;卡间通信时间;n 提升加速比:降低卡间通信时间是关键,关键技术是提升加速比:降低卡间通信时间是关键,关键技术是RDMA技术,其可以绕过操技术,其可以绕过操作系统内核,让一台主机直接访问另一台主机的内存;作系统内核,让一台主机直接访问另一台主机的内存;请务必阅读正文之后的免责声明及其项下所有内容网络互联网络互联-节点间节点间:InfiniBand:InfiniBand网络核心组成网络核心组成InfinibandInfiniband网络主要包括网

30、络主要包括InfiniBandInfiniBand网卡、网卡、InfiniBandInfiniBand交换机、交换机、Subnet ManagementSubnet Management(SMSM)、连接件组成。)、连接件组成。目前,英伟达是InfiniBand网络方案和设备最主要供应商,其他供应商还包括intel、Cisco、HPE等。英伟达:英伟达:InfiniBand技术的主要供应商,提供各种InfiniBand适配器、交换机和其他相关产品;IntelIntel:InfiniBand另一重要供应商,提供各种InfiniBand网络产品和方案;CiscoCisco:知名网络设备制造商,也提

31、供InfiniBand交换机和其他相关产品;HPEHPE:大型IT公司,提供各种InfiniBand网络解决方案和产品,包括适配器、交换机和服务器等。图22:Infiniband网络主要包括网卡、交换机、Subnet Management(SM)、连接件组成资料来源:智算中心网络架构白皮书、英伟达、Mellanox、国信证券经济研究所整理网卡交换机SM连接件InfiniBand网卡以英伟达为主;速率方面快速发展,200Gbps HDR已实现规模化商业部署,400Gbps NDR开始商业部署;SB7800(36*100G)Quantum-1(40*200G)Quantum-2(64*400G)I

32、nfiniBand交换机上不运行任何路由协议;网络转发表是由SM进行统一计算并统一下发的;SM分为OpenSM(开源)和UFM(收费)两种模式;SM通常部署在接入InfiniBand子网的一台服务器上,一个子网内同时只能有一个SM工作,若多个设备配置成SM,则只有一个SM能成为主SM;专用线缆和光模块专用线缆和光模块请务必阅读正文之后的免责声明及其项下所有内容网络互联网络互联-节点间节点间:InfiniBand:InfiniBand网络特点网络特点-无损无损&万卡拓展能力万卡拓展能力原生无损网络:原生无损网络:InfiniBand网络采用基于Credit信令机制,从根本上避免缓冲区溢出丢包。发

33、送端只有在确定接收端有额度能接受对应数量的报文后,才会启动报文发送;每一条链路都有预置缓冲区,发送端一次发送的数据不会超过接收端可用预置缓冲区的大小;接收端完成转发后会腾空缓冲区,并持续向发送端返回当前可用的预置缓冲区大小;通过该流控机制,可以确保发送端绝不会发送过量,网络中不会产生缓冲区溢出丢包。万卡拓展能力:万卡拓展能力:InfiniBand的Adaptive Routing基于逐包的动态路由,在超大规模组网的情况下保证网络最优利用。图23:Infiniband网络无损数据传输资料来源:智算中心网络架构白皮书、国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容网络互联网络互

34、联-节点间节点间:RoCEv2:RoCEv2网络核心组成网络核心组成RoCEv2RoCEv2网络是一个纯分布式的网络,由支持网络是一个纯分布式的网络,由支持RoCEv2RoCEv2的网卡和交换机、连接件、流控机制的网卡和交换机、连接件、流控机制组成,一般情况下是两层架构。组成,一般情况下是两层架构。连接件使用传统光纤和光模块即可,流控机制通常使用PFC、ECN和DCQCN。设备供应商设备供应商:1)交换机:支持RoCE交换机供应商较多,新华三、华为等占据主要市场份额。2)网卡:目前英伟达ConnextX系列网卡占据主要市场份额。图24:RoCE网络主要包括网卡、交换机、流控机制、连接件组成资料

35、来源:智算中心网络架构白皮书、英伟达、Mellanox、国信证券经济研究所整理网卡交换机流控机制连接件商用卡商用卡云厂商云厂商自研自研DPUDPU百度智能云太行DPU支持RoCE网卡的厂商较多,主流厂商为英伟达、Intel、Broadcom;以PCIe卡为主,RDMA网卡的端口PHY速率一般50Gbps起,当前可达400Gbps;以云厂商为代表的自研DPU也在蓬勃发展;国内的主流IDC交换机厂商包括华为、新华三等;交换机的核心是转发芯片,目前市场上商用转发芯片多为博通的Tomahawk系列芯片;交换机的端口从100Gbps逐步提升到400Gbps,转发能力持续提升;传统光纤和光模块传统光纤和光

36、模块PFCPFC流控策略流控策略DCQCNDCQCN流控策略流控策略请务必阅读正文之后的免责声明及其项下所有内容图26:InfiniBand和RoCEv2技术对比资料来源:智算中心网络架构白皮书、国信证券经济研究所整理图25:InfiniBand的应用层端对端时延更低资料来源:智算中心网络架构白皮书、国信证券经济研究所整理网络互联网络互联-节点间节点间:InfiniBand:InfiniBand和和RoCEv2RoCEv2网络方案对比网络方案对比网络性能:网络性能:InfiniBand的端到端时延小于RoCEv2,但RoCEv2性能也满足绝大部分智算场景的需要;集群规模集群规模:InfiniB

37、and在集群规模领域具备显著优势,可以支持万卡集群(且性能基本不下降);RoCEv2单集群支持千卡规模(性能也基本不下降);运维方面运维方面:InfiniBand更成熟,包括多租户隔离能力,运维诊断能力等;成本方面成本方面:InfiniBand成本更高,主要由于InfiniBand交换机价格较贵;供应商方面供应商方面:InfiniBand供应商主要以英伟达为主,RoCEv2的供应商较多。对比项对比项InfiniBandRoCEv2同集群端到端时延2us5us流控机制基于Credit的流控机制PFC/ECN,DCQCN等转发模式基于Local ID转发基于IP转发负载均衡模式逐包的自适应路由EC

38、MP方式路由故障修复Self-Healing Interconnect Enhancement for Intelligent Datacenters路由收敛网络配置通过UFM实现零配置手工配置请务必阅读正文之后的免责声明及其项下所有内容智算中心:从集群走向超级池化0101网络互联:节点内外多方案并存0202目录目录投资建议及风险提示0303请务必阅读正文之后的免责声明及其项下所有内容投资建议投资建议AIAI大模型训练和推理需求推动新型智算中心建设。大模型训练和推理需求推动新型智算中心建设。AI大模型的参数量和训练数据量的快速增长,对数据中心的计算、存储、网络等提出新的要求,新型智算中心是产业

39、发展趋势;AI大模型需要部署在高速互联的多个AI芯片上,数据样本和模型结构被切分到多张卡或者节点上,卡间或节点间不仅有训练数据通信,还有模型梯度的频繁传递,对智算中心的网络互联提出新的要求,建议关注宝信软件。宝信软件宝信软件:随着国家大力发展数据中心产业,公司借助十四五规划和“东数西算”政策,将数据中心新建项目向华北拓展;公司对数据中心进行升级改造,从软件、机柜的模块集成、电池组优化供配、机房自然冷源利用等多角度进行优化和升级改造;同时,公司构建新型智算中心项目,支撑行业大模型及人工智能应用的建设发展。请务必阅读正文之后的免责声明及其项下所有内容风险提示风险提示第一,宏观经济波动。若宏观经济波

40、动,产业变革及新技术的落地节奏或将受到影响,宏观经济波动还可能对 IT 投资产生负面影响,从而导致整体行业增长不及预期。第二,下游需求不及预期。若下游数字化需求不及预期,相关的数字化投入增长或慢于预期,致使行业增长不及预期。第三,AI伦理风险。AI可能会生产违反道德、常规、法律等内容。请务必阅读正文之后的免责声明及其项下所有内容免责声明免责声明分析师承诺分析师承诺作者保证报告所采用的数据均来自合规渠道;分析逻辑基于作者的职业理解,通过合理判断并得出结论,力求独立、客观、公正,结论不受任何第三方的授意或影响;作者在过去、现在或未来未就其研究报告所提供的具体建议或所表述的意见直接或间接收取任何报酬

41、,特此声明。重要声明重要声明本报告由国信证券股份有限公司(已具备中国证监会许可的证券投资咨询业务资格)制作;报告版权归国信证券股份有限公司(以下简称“我公司”)所有。,本公司不会因接收人收到本报告而视其为客户。未经书面许可,任何机构和个人不得以任何形式使用、复制或传播。任何有关本报告的摘要或节选都不代表本报告正式完整的观点,一切须以我公司向客户发布的本报告完整版本为准。本报告基于已公开的资料或信息撰写,但我公司不保证该资料及信息的完整性、准确性。本报告所载的信息、资料、建议及推测仅反映我公司于本报告公开发布当日的判断,在不同时期,我公司可能撰写并发布与本报告所载资料、建议及推测不一致的报告。我

42、公司不保证本报告所含信息及资料处于最新状态;我公司可能随时补充、更新和修订有关信息及资料,投资者应当自行关注相关更新和修订内容。我公司或关联机构可能会持有本报告中所提到的公司所发行的证券并进行交易,还可能为这些公司提供或争取提供投资银行、财务顾问或金融产品等相关服务。本公司的资产管理部门、自营部门以及其他投资业务部门可能独立做出与本报告中意见或建议不一致的投资决策。本报告仅供参考之用,不构成出售或购买证券或其他投资标的要约或邀请。在任何情况下,本报告中的信息和意见均不构成对任何个人的投资建议。任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。投资者应结合自己的投资目标和财

43、务状况自行判断是否采用本报告所载内容和信息并自行承担风险,我公司及雇员对投资者使用本报告及其内容而造成的一切后果不承担任何法律责任。证券投资咨询业务的说明证券投资咨询业务的说明本公司具备中国证监会核准的证券投资咨询业务资格。证券投资咨询,是指从事证券投资咨询业务的机构及其投资咨询人员以下列形式为证券投资人或者客户提供证券投资分析、预测或者建议等直接或者间接有偿咨询服务的活动:接受投资人或者客户委托,提供证券投资咨询服务;举办有关证券投资咨询的讲座、报告会、分析会等;在报刊上发表证券投资咨询的文章、评论、报告,以及通过电台、电视台等公众传播媒体提供证券投资咨询服务;通过电话、传真、电脑网络等电信

44、设备系统,提供证券投资咨询服务;中国证监会认定的其他形式。发布证券研究报告是证券投资咨询业务的一种基本形式,指证券公司、证券投资咨询机构对证券及证券相关产品的价值、市场走势或者相关影响因素进行分析,形成证券估值、投资评级等投资分析意见,制作证券研究报告,并向客户发布的行为。国信证券投资评级国信证券投资评级投资评级标准投资评级标准类别类别级别级别说明说明报告中投资建议所涉及的评级(如有)分为股票评级和行业评级(另有说明的除外)。评级标准为报告发布日后6到12个月内的相对市场表现,也即报告发布日后的6到12个月内公司股价(或行业指数)相对同期相关证券市场代表性指数的涨跌幅作为基准。A股市场以沪深3

45、00指数(000300.SH)作为基准;新三板市场以三板成指(899001.CSI)为基准;香港市场以恒生指数(HSI.HI)作为基准;美国市场以标普500指数(SPX.GI)或纳斯达克指数(IXIC.GI)为基准。股票投资评级股票投资评级买入 股价表现优于市场代表性指数20%以上增持 股价表现优于市场代表性指数10%-20%之间中性 股价表现介于市场代表性指数10%之间卖出 股价表现弱于市场代表性指数10%以上行业投资评级行业投资评级超配 行业指数表现优于市场代表性指数10%以上中性 行业指数表现介于市场代表性指数10%之间低配 行业指数表现弱于市场代表性指数10%以上请务必阅读正文之后的免责声明及其项下所有内容国信证券经济研究所国信证券经济研究所深圳深圳深圳市福田区福华一路125号国信金融大厦36层邮编:518046 总机:上海上海上海浦东民生路1199弄证大五道口广场1号楼12楼邮编:200135北京北京北京西城区金融大街兴盛街6号国信证券9层邮编:100032

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(计算机行业新型智算中心改造系列报告一:网络成大模型训练瓶颈节点内外多方案并存-240505(24页).pdf)为本站 (好好学习) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
相关报告
客服
商务合作
小程序
服务号
会员动态
会员动态 会员动态:

wei**n_...   升级为高级VIP 138**78...   升级为标准VIP

 wu**i 升级为高级VIP  wei**n_...  升级为高级VIP

 wei**n_... 升级为标准VIP wei**n_...  升级为高级VIP

 185**35... 升级为至尊VIP  wei**n_... 升级为标准VIP

 186**30... 升级为至尊VIP  156**61... 升级为高级VIP 

 130**32... 升级为高级VIP 136**02... 升级为标准VIP 

 wei**n_... 升级为标准VIP 133**46... 升级为至尊VIP

wei**n_...  升级为高级VIP  180**01... 升级为高级VIP

130**31...  升级为至尊VIP wei**n_... 升级为至尊VIP 

 微**... 升级为至尊VIP wei**n_... 升级为高级VIP 

 wei**n_... 升级为标准VIP  刘磊  升级为至尊VIP

 wei**n_... 升级为高级VIP 班长 升级为至尊VIP 

 wei**n_... 升级为标准VIP  176**40...  升级为高级VIP 

  136**01... 升级为高级VIP 159**10...  升级为高级VIP

君君**i... 升级为至尊VIP  wei**n_... 升级为高级VIP 

  wei**n_... 升级为标准VIP 158**78...  升级为至尊VIP

微**... 升级为至尊VIP  185**94... 升级为至尊VIP 

wei**n_...  升级为高级VIP  139**90... 升级为标准VIP

131**37... 升级为标准VIP  钟**  升级为至尊VIP 

 wei**n_... 升级为至尊VIP 139**46... 升级为标准VIP 

wei**n_...  升级为标准VIP  wei**n_...  升级为高级VIP

150**80...  升级为标准VIP  wei**n_... 升级为标准VIP

GT  升级为至尊VIP 186**25... 升级为标准VIP 

wei**n_...  升级为至尊VIP   150**68... 升级为至尊VIP

 wei**n_... 升级为至尊VIP  130**05... 升级为标准VIP 

wei**n_... 升级为高级VIP  wei**n_... 升级为高级VIP 

wei**n_...  升级为高级VIP 138**96... 升级为标准VIP

 135**48... 升级为至尊VIP  wei**n_... 升级为标准VIP

肖彦 升级为至尊VIP    wei**n_...  升级为至尊VIP

wei**n_...  升级为高级VIP wei**n_... 升级为至尊VIP 

国**... 升级为高级VIP 158**73... 升级为高级VIP 

 wei**n_... 升级为高级VIP wei**n_...  升级为标准VIP

wei**n_... 升级为高级VIP  136**79... 升级为标准VIP 

沉**... 升级为高级VIP   138**80...  升级为至尊VIP

138**98...  升级为标准VIP wei**n_... 升级为至尊VIP

wei**n_...  升级为标准VIP wei**n_...  升级为标准VIP

 wei**n_... 升级为至尊VIP 189**10... 升级为至尊VIP 

 wei**n_...  升级为至尊VIP 準**... 升级为至尊VIP

151**04... 升级为高级VIP   155**04...  升级为高级VIP

wei**n_...  升级为高级VIP sha**dx... 升级为至尊VIP

186**26... 升级为高级VIP    136**38... 升级为标准VIP

182**73...  升级为至尊VIP  136**71... 升级为高级VIP

139**05... 升级为至尊VIP   wei**n_...  升级为标准VIP

 wei**n_... 升级为高级VIP  wei**n_... 升级为标准VIP

 微**... 升级为标准VIP Bru**Cu...   升级为高级VIP

155**29... 升级为标准VIP   wei**n_... 升级为高级VIP 

 爱**...  升级为至尊VIP wei**n_... 升级为标准VIP

 wei**n_...  升级为至尊VIP 150**02... 升级为高级VIP 

 wei**n_... 升级为标准VIP 138**72... 升级为至尊VIP 

wei**n_...  升级为高级VIP  153**21...  升级为标准VIP