《计算机行业:政策、需求双轮驱动AI算力前景广阔-230612(53页).pdf》由会员分享,可在线阅读,更多相关《计算机行业:政策、需求双轮驱动AI算力前景广阔-230612(53页).pdf(53页珍藏版)》请在三个皮匠报告上搜索。
1、请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 2023.06.12 政策、需求双轮驱动,政策、需求双轮驱动,AI 算力前景广阔算力前景广阔 李沐华李沐华(分析师分析师)齐佳宏齐佳宏(分析师分析师)李博伦李博伦(分析师分析师) 证书编号 S0880519080009 S0880519080007 S0880520020004 本报告导读:本报告导读:算力是算力是 AI 产业发展的根基,迎来政策的密集支持和需求的快速释放,产业发展的根基,迎来政策的密集支持和需求的快速释放,AI 服务器及服务器及AI芯
2、片都迎来广阔的发展机遇。芯片都迎来广阔的发展机遇。摘要:摘要:投资建议:投资建议:由于海量数据处理需求激增、AI 模型算法渐趋复杂以及算力投资具备的强经济效益,AI 算力产业的长期发展前景广阔,迎来投资机遇。AI 服务器是 AI 算力产业价值量的最大体现,中国 AI服务器整机厂商增速领跑全球,AI 服务器整机环节受益标的包括浪潮信息、紫光股份、中科曙光、拓维信息等;AI 芯片是 AI 算力产业的核心竞争力,中国厂商正在奋力直追海外龙头公司,AI 芯片受益标的包括寒武纪、海光信息、景嘉微等。算力是算力是 AI 产业发展的根基,迎来持续政策支持。产业发展的根基,迎来持续政策支持。数据的快速增长以及
3、算法模型的复杂化需要更强算力的支撑,同时算力还具备极强的经济效益,据统计计算力指数平均每提高 1 点,国家的数字经济和 GDP将分别增长 3.5和 1.8,因而成为政府政策支持的重点。目前,我国 AI 产业已经迎来了以新一代人工智能发展规划为顶层定调,各部委、各地方政府政策辅助落地的“1+N”的产业政策体系,进入2023 年以来,北京市、深圳市、上海市等地都密集出台 AI 产业支持政策,行业迎来持续政策催化。AI 服务器市场空间广阔,中国厂商表现亮眼。服务器市场空间广阔,中国厂商表现亮眼。根据 IDC 统计,2021年全球 AI 服务器市场规模为 156.3 亿美元,预计 2026 年将增长至
4、347.1 亿美元;2021 年中国 AI 服务器市场规模为 59.2 亿美元,预计2026 年将增长至 123.4 亿美元,长期成长空间广阔。2021 年浪潮信息、新华三(紫光股份)、联想的 AI 基础设施营收增速领跑全球主要厂商,其中浪潮信息市场份额位居全球第一,未来中国 AI 服务器厂商有望充分受益于下游需求的持续释放,迎来长足发展。英伟达引领全球英伟达引领全球 AI 芯片发展潮流,中国厂商奋起直追芯片发展潮流,中国厂商奋起直追,有望超预期,有望超预期发展发展。英伟达作为 GPU 的发明者,其芯片架构保持了快速迭代,计算性能实现大幅度提升,且注重软件生态建设,提供高质量的软件开发工具,使
5、其成为全球 AI 芯片产业的龙头。在政策与需求的双轮驱动下,中国 AI 芯片厂商正在奋起直追,尤其是在 ASIC 路线上加大投入,目前已经涌现出寒武纪、华为昇腾、海光信息、燧原科技等优秀的 AI 芯片厂商,AI 算力性能有显著提升,未来有望实现超预期发展。风险提示:风险提示:下游需求不及预期的风险、核心元器件供应受制裁的风险、市场竞争加剧的风险 评级:评级:增持增持 上次评级:增持 细分行业评级 相关报告 计算机机器人与大模型催化,具身智能东风已至 2023.05.28 计算机重点关注 AI 大模型原生应用,优选兼具模型与垂直场景的厂商 2023.05.26 计算机苹果 MR 有望引爆机器视觉
6、的iPhone 时刻 2023.05.18 计算机北京市促进 AI 发展政策出炉,聚焦算力、数据与场景 2023.05.16 计算机4 月订单环比继续回升,医院继续贡献大单 2023.05.04 行业专题研究行业专题研究 股票研究股票研究 证券研究报告证券研究报告 计算机计算机 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 2 of 53 目目 录录 1.算力是 AI 产业发展的根基,具有极强的经济效益.3 2.“1+N”政策体系日益完善,三阶段发展均有侧重.4 3.GPU 是 AI 硬件产业链中第一价值量.8 3.1.AI 数据中心需求激增,AI
7、 服务器快速放量.8 3.2.AI 服务器中,GPU 价值量最大.13 4.全球 AI 服务器市场空间广阔,中国厂商表现亮眼.18 4.1.生成式人工智能驱动全球 AI 服务器市场持续增长.18 4.2.中国厂商在全球 AI 服务器市场中处于领军地位.21 4.2.1.浪潮信息:全球 AI 服务器领军企业.22 4.2.2.紫光股份:全面拥抱 AIGC,快速崛起的 AI 服务器龙头企业 25 4.2.3.中科曙光:稳步增长的老牌智能计算龙头企业.27 4.2.4.拓维信息:自主可控的昇腾智能计算生态核心参与者.28 5.英伟达引领全球 AI 芯片发展潮流.29 5.1.AI 应用兴起将持续推动
8、英伟达数据中心业务高增长.29 5.2.英伟达 AI 芯片架构不断演进.31 5.3.英伟达非常重视软件生态的配套.34 5.3.1.CUDA 生态构筑软件壁垒.34 5.3.2.推出 AI 模型,协助应用开发.36 5.4.实现云与边缘的共振.37 5.4.1.英伟达推出 DGX Cloud.37 5.4.2.英伟达 Jetson 边缘计算平台覆盖更多场景.39 5.5.AMD 正在全力向英伟达发起追赶.40 6.政策、需求双轮驱动,国内 AI 芯片企业蓬勃发展.41 6.1.AIGC 拉动 AI 算力需求,AI 芯片将成为未来科技石油.41 6.2.国内 AI 芯片企业蓬勃发展.44 6.
9、2.1.国内 AI 芯片企业百花齐放.44 6.2.2.AI 芯片乃兵家必争之地,BA T 均已有所布局.48 7.投资建议.51 8.风险提示.51 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 3 of 53 1.算力是算力是 AI产业发展的根基,具有极强的经济效益产业发展的根基,具有极强的经济效益 算力是承载人工智能应用发展的基础,是人工智能最核心的要素算力是承载人工智能应用发展的基础,是人工智能最核心的要素。算力、算法和数据是人工智能产业发展的三个核心要素。海量的数据每时每刻都在产生,数据的生产不再是问题,如何处理、分析和使用数据才是问题。
10、算法经历了数十年的发展,在深度学习和加速计算出现之后,得到了迅速的发展和优化,开始成为社会关注的热点。然而在三大要素中,算力才是最核心的要素,只有算力的进步才能推动人工智能产业向前发展并走向成熟,算力是承载和推动人工智能走向实际应用的决定性力量。数据的数据的快速快速增长对算力发展提出更高要求。增长对算力发展提出更高要求。随着信息化、数字化的持续推进,全球新产生的数据量正在快速增长,根据 IDC 数据显示,2021年全球新增数据总量达到 84.5 ZB,预计到 2026 年全球新增数据总量将达到 221.2 ZB,2021 年至 2026 年间的年复合增速达到 21.22%。海量数据为人工智能应
11、用的发展提供了肥沃的土壤,但需要更强大的智能算力对其进行处理。同时随着新应用场景的出现,越来越多场景对数据的实时性提出更高要求,实时数据的激增使得边缘计算能力变得愈发重要,人工智能应用也越来越依赖边缘算力支撑。算法算法模型模型的复杂化和巨量化需要更强算力的支撑。的复杂化和巨量化需要更强算力的支撑。虽然数据总量正在快速增长,但正在被有效利用的数据量不足 1%。如何有效的抓取高质量数据并建立精准模型,取决于 AI 算法的开发能力。近些年,算法模型的参数量和复杂程度都在呈现指数级增长态势,尤其是自然语言处理等新兴认知智能领域对算力的要求远超图像识别和语音识别等传统 AI 领域。2018 年 6 月推
12、出的自言语言处理大模型 GPT-1 的模型参数量为 1.17亿,2019 年 2 月推出的 GPT-2 的模型参数量大幅提高至 15 亿,2020 年5 月推出的 GPT-3 参数量则进一步提高至 1750 亿。模型参数的大幅度提升也快速提高了对智能算力的需求,如果用“算力当量(PFLOPS-day,PD)”,即每秒千万亿次计算机完整运行一天消耗的总算力,来度量人工智能任务所需的智能算力总量,根据2022-2023 中国人工智能计算力发展评估报告显示,训练 GPT-3 模型需要 3640 PD 的智能算力。算力的算力的提升还具有极强的经济效益,因而成为各国政策支持的重点。提升还具有极强的经济效
13、益,因而成为各国政策支持的重点。根据清华大学全球产业院与浪潮信息联合发布的2021-2022 全球计算力指数评估报告,通过对全球 15 个重点国家的计算力指数与数字经济及GDP 的回归分析,得到 15 个重点国家的计算力指数平均每提高 1 点,国家的数字经济和 GDP 将分别增长 3.5和 1.8,预计该趋势在 2021年至 2025 年间将持续保持,且进一步研究发现,当一个国家计算力指数分别达到 40 分及 60 分以上时,计算力指数每提升 1 点,其对 GDP增长的推动力将分别增加到 1.5 倍及 3 倍,对经济增长的拉动作用会变得更加显著。考虑到算力提升,尤其是智能算力提升所具备的重大经
14、济效益,对算力基础设施发展的支持性政策成为各国政策的重点。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 4 of 53 图图 1:算力提升具有极强的经济效益:算力提升具有极强的经济效益 数据来源:2021-2022 全球计算力指数评估报告 2.“1+N”政策体系日益完善,三阶段发展均有侧重”政策体系日益完善,三阶段发展均有侧重 围绕推动人工智能健康快速发展的现实要求围绕推动人工智能健康快速发展的现实要求,我国政府我国政府主要以五个角度主要以五个角度进行发力进行发力。人工智能技术对生产、流通、消费等形成高度渗透、跨界融合,新业态、新模式不断涌现,给以
15、往的产业生态、社会分工、行业和企业边界、生产组织方式等诸多方面带来前所未有的新变化。而促进新业态、新产业发展的关键在于强化产业政策,为新兴产业发展创造更加有利的外部环境。因此,我国政府主要采用“五大类政策”,妥善应对人工智能可能带来的挑战,形成适应人工智能发展的制度安排,夯实人工智能发展的社会基础。五大类政策主要包括了相关法律法规和伦理规范、人工智能发展支持政策、标准和产权体系、监管和评估体系以及 AI人才培训。图图 2:我国各类人工智能政策内涵可大致分为五个维度我国各类人工智能政策内涵可大致分为五个维度 资料来源:国务院新一代人工智能发展规划,国泰君安证券研究 顶层定调,顶层定调,新一代人工
16、智能发展规划首次确认了人工智能产业“三新一代人工智能发展规划首次确认了人工智能产业“三步走”战略。步走”战略。国务院于 2017 年发布的新一代人工智能发展规划是中国在人工智能领域进行的第一个部署文件,确定了人工智能产业发展的总体思路、战略目标和任务,规划确定了人工智能产业在 2020 年、2025 年及 2030 年的“三步走”发展目标。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 5 of 53 图图 3:中国人工智能产业“三步走”战略(单位:万亿元)中国人工智能产业“三步走”战略(单位:万亿元)资料来源:国务院新一代人工智能发展规划、智研咨询
17、,国泰君安证券研究 “1+N1+N”政策体系逐步构建”政策体系逐步构建。随着顶层规划的定调,将人工智能上升为国家战略,部委层面也陆续进行了政策布局,即形成了“1+N”政策体系,“1”代表国务院发布的新一代人工智能发展规划,“N”是指部委层面陆续出台的关于人工智能产业的发展规划、行动计划、实施方案等落地政策,其中工信部、科技部发布的政策主要涉及数实融合、场景创新、区域创新等内容,国家标准委、发改委围绕标准体系、伦理规范、基础设施建设等内容开展工作。图图 4:人工智能“人工智能“1+N1+N”政策体系”政策体系逐步构建逐步构建 资料来源:国务院新一代人工智能发展规划,国泰君安证券研究 复盘人工智能
18、相关政策历程,政策的着力点愈发具体和针对性复盘人工智能相关政策历程,政策的着力点愈发具体和针对性。自从2015 年国务院出台的中国制造 2025提出发展智能装备以及生产智能化,之后人工智能相关规划和政策密集颁布。2016 年 3 月,人工智能写入“十三五”规划纲要。2016 年以后,国务院、发改委、工信部、科技部等多部门出台了多个人工智能相关规划及工作方案推动人工智能的发展。2017 年 10 月,人工智能写进十九大报告,将推动互联网、大数据、人工智能和实体经济深度融合;2020 年 7 月中央网信办等五部门发布的国家新一代人工智能标准体系建设指南明确到 2023 年,初步建立人工智能标准体系
19、,重点研制数据、算法、系统、服务等重点急需标准,并率先在制造、交通、金融、安防等重点行业和领域进行推进;0.150.40030人工智能市场规模人工智能产业规模到2020年人工智能总体技术和应用与世界先进水平同步到2025年人工智能基础理论实现重大突破技术与应用部分达到世界领先水平。到2030年人工智能理论技术与应用总体达到世界先进水平,成为世界主要人工智能创新中心。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 6 of 53 2021 年 9 月国家新一代人工智能治理专业委员会发布的 新一代人工智能伦理规
20、范标志着人工智能政策已从推进应用逐渐转入监管领域;随后在“十四五”国家信息化规划文件中,统计发现人工智能词频高达 47次,其远高于“十三五”中出现次数,体现了国家人工智能相关要求的持续加码。图图 5:人工智能人工智能在“十四五”信息化规划中高频出现在“十四五”信息化规划中高频出现 资料来源:国泰君安证券研究 作为引领新一轮科技革命和产业变革的关键力量,人工智能芯片作为引领新一轮科技革命和产业变革的关键力量,人工智能芯片也也一直一直被政策所重视被政策所重视。国务院、发改委以及工信部等多个部门都陆续印发了支持和引导 AI 芯片行业发展政策,其中主要侧重点涉及到了芯片技术路线、芯片行业规范以及芯片安
21、全运行规范等内容。从历史政策来看,人工智能芯片在“十三五”规划中被写入国家发展规划纲要,之后工信部出台的新一代人工智能产业发展三年行动计划 2018-2020重点扶持神经网络芯片,推动人工智能芯片在国内实现规模化应用。2021 年“十四五”规划提出重点发展数字技术创新,提高人工智能芯片的研发和应用。图图 6:我国人工智能芯片产业持续我国人工智能芯片产业持续受受到政策重视到政策重视 资料来源:各部委及政府官网,国泰君安证券研究 因此,可以看出我国人工智能政策因此,可以看出我国人工智能政策的发展的发展大致大致历经了历经了三个阶段三个阶段。第一阶段(2015-2016 年)中,政策专注于试点和场景探
22、索,且政策数量相对较少。因为制造业是人工智能率先落地的领域之一,所以针对智能制造和“互联网+”进行的相关布局是此阶段重点,而且工业领域的智能化应用也可以为人工智能往其他领域延伸打下坚实基础;第二阶段(2017-2019 年),国家顶层计划逐步清晰,“全面推动人工智能和实体经济融合发展”成为主旋律,而且各个部委层面的政策及行动方案十分 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 7 of 53 具体,此阶段政策发布数量较多;第三阶段(2020 年-至今),产业实践中所出现的挑战逐步成为政策的重点,政策上开始聚焦于关键场景应用、标准化以及监管和伦理等
23、层面,政策开始向产业治理方向转变。同时伴随着 AIGC 产业化应用加速,使得人工智能监管技术不断升级和复杂化,因此相关监管政策也将会有进一步更新和优化。图图 7:我国我国人工智能政策经历三个发展阶段,各有侧重人工智能政策经历三个发展阶段,各有侧重 资料来源:各部委官网、天翼智库,国泰君安证券研究 生成式人工智能生成式人工智能形成形成新驱力,地方性新驱力,地方性人工智能人工智能政策密集出台政策密集出台。随着ChatGPT 引爆的 AIGC 潮流兴起,生成式人工智能对于实体经济和相关产业的影响极为深远,为了抓住这一轮智能化变革浪潮,各地方也逐步加大了相关政策的引导和支持。其中比较有影响力的是北京市
24、于 2023 年 5月 30 日发布的重磅实施方案,北京市发布了两项重磅政策促进人工智能行业发展,其中北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025 年)提出到 2025 年人工智能核心产业规模达到 3000 亿元,持续保持 10%以上增长,辐射产业规模超过 1 万亿元。另一份 北京市促进通用人工智能创新发展的若干措施 则围绕算力、数据、模型、场景和监管五大方面,提出了 21 条具体措施。根据新政策描述,北京将加快建设具有全球影响力的人工智能创新策源地。图图 8:北京市北京市提出若干提出若干发展通用人工智能的发展通用人工智能的措施措施,具有重要指导意义,具有重要指
25、导意义 资料来源:北京市促进通用人工智能创新发展的若干措施,国泰君安证券研究 各地方也都提出了各地方也都提出了各自的各自的人工智能产业人工智能产业相关发展相关发展目标目标。2023 年 5 月 31日,深圳市印发深圳市加快推动人工智能高质量发展高水平应用行动 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 8 of 53 方案(2023-2024 年)统筹设立规模 1000 亿元的人工智能基金群,加上2022 年出台实施的 深圳经济特区人工智能产业促进条例,构筑起“一条例、一方案、一清单、一基金群的人工智能高质量发展政策体系;2023 年 5 月 2
26、5 日,上海市发改委也明确表示支持民营企业广泛参与数据、算力等人工智能基础设施建设,延长新型基础设施项目贴息政策执行期限至 2027 年底,提供最高 1.5 个百分点的利息补贴。此外,各一线、二线城市也针对 AI 产业制定了企业数量目标和产业规模目标,凸显了各地域对人工智能经济贡献的充足信心。表表 1:各省市重点城市均制定了人工智能产业相关成果目标各省市重点城市均制定了人工智能产业相关成果目标 城市地域城市地域 人工智能产业规模目标人工智能产业规模目标 人工智能企业数量目标人工智能企业数量目标 目标年份目标年份 上海上海浦东新区浦东新区 突破 2000 亿元 1000 家 2023 年 深圳深
27、圳 突破 300 亿元 20 家龙头企业 2023 年 济南济南-青岛青岛 300 亿元/2025 年 南京南京 超过 500 亿元 100 家重点企业 2025 年 广州广州/1000 家 2023 年 天津滨海新区天津滨海新区 500 亿元 10 家领军企业 2023 年 杭州杭州/3-4 个千亿级产业集群 2024 年 武汉武汉 500 亿元/2023 年 长沙长沙 1000 亿元 1000 家 2023 年 成都成都 突破 1500 亿元 1000 家 2025 年 数据来源:各地 AI 产业政策规划文件,国泰君安证券研究 3.GPU 是是 AI硬件产业链中第一价值量硬件产业链中第一价
28、值量 3.1.AIAI 数据中心需求激增,数据中心需求激增,AIAI 服务器快速放量服务器快速放量 AI 数据中心是专门用于支持人工智能计算和数据处理任务的设施或物数据中心是专门用于支持人工智能计算和数据处理任务的设施或物理空间。理空间。它在传统数据中心的基础上进行了特殊配置和优化,以满足机器学习、深度学习和其他 AI 相关任务的需求。AI 数据中心通常拥有大量高性能的服务器、GPU 加速器和专门的存储系统,以提供强大的计算能力并加速深度学习。此外,AI 数据中心还配备了高速的网络设备和优化的软件框架,以支持高效的数据传输和算法训练。通过这些专门的配置和优化,AI 数据中心能够为各种规模和复杂
29、度的 AI 工作负载提供可靠稳定的计算环境,并满足大规模数据存储、备份和分析的需求。AI数据中心在推动人工智能技术的发展和应用方面起到关键作用,为各行各业的 AI 应用和服务提供了强大的支持。表表 2:AI 数据中心比普通数据中心需要更好的计算能力、存储需求、数据中心比普通数据中心需要更好的计算能力、存储需求、网络带宽和软件支持网络带宽和软件支持 方面方面 需求需求 计算能力计算能力 用于大规模并行计算,处理复杂机器学习和深度学习算法的高性能计算设备(如 GPU 和特定的 AI 芯片)储存需求储存需求 用于存储大规模数据集的大容量、高速存储 行业专题研究行业专题研究 请务必阅读正文之后的免责条
30、款部分请务必阅读正文之后的免责条款部分 9 of 53 网络宽带网络宽带 用于快速数据传输和通信的高网络带宽、低延迟网络,以满足对数据传输速度的敏感需求 软件支持软件支持 针对机器学习和深度学习任务的软件支持,包括专门的 AI 框架、库和工具,以及优化的软件栈和分布式计算平台,以提高计算效率和性能 数据来源:国泰君安证券研究 AI 数据中心的行业格局呈现出多层次的供应链结构,包括上游的数据数据中心的行业格局呈现出多层次的供应链结构,包括上游的数据中心设备制造商和解决方案供应商,中游的云服务提供商和大型科技公中心设备制造商和解决方案供应商,中游的云服务提供商和大型科技公司,以及下游的企业用户和个
31、人开发者。司,以及下游的企业用户和个人开发者。这些不同环节的参与者相互合作,共同构建了一个竞争激烈且多元化的生态系统。AI 数据中心上游主要有芯片制造商、服务器和网络设备供应商等。数据中心上游主要有芯片制造商、服务器和网络设备供应商等。芯片制造商包括如海思、寒武纪、中芯国际等等,在 AI 数据中心中提供高性能的芯片解决方案。在服务器领域,国内的浪潮、新华三等企业以及国际企业如戴尔、惠普等都在中国市场有一定份额。网络设备方面,华为、思科等公司提供了关键的网络基础设施。AI 数据中心中游主要有电信运营商、云服务提供商及大型互联网企业数据中心中游主要有电信运营商、云服务提供商及大型互联网企业和第三方
32、和第三方 IDC 服务商。服务商。当前许多从事 AI 研发的互联网企业,像亚马逊、百度、腾讯等都已部署自己的 AI 数据中心。阿里云、腾讯云和华为云等大型云服务提供商开始提供云计算、存储、AI 平台等服务。它们利用自身的技术和资源为企业和研究机构提供 AI 解决方案和支持。电信运营商方面,中国电信、中国移动、中国联通等传统电信运营商在建设数据中心基础设施方面投入大量资源并提供 AI 相关服务。第三方 IDC 服务商比如万国数据、世纪互联等也在AI 数据中心市场中扮演重要角色。它们提供数据中心托管、云主机、网络带宽等服务,满足企业和机构对AI 数据中心基础设施和运维的需求。这些服务商通常提供灵活
33、的解决方案,使企业能够快速部署和扩展 AI 应用。AI 数据中心的下游用户需求主要来自各行各业的企业、研究机构和政数据中心的下游用户需求主要来自各行各业的企业、研究机构和政府部门。府部门。这些用户根据自身需求选择合适的云服务提供商或搭建私有数据中心,以满足其对 AI 技术的需求。下游用户需求的多样性使得 AI 数据中心市场分散。图图 9:AI 数据中心呈现多元多层次供应链生态系统数据中心呈现多元多层次供应链生态系统 数据来源:国泰君安证券研究 随着随着 AI 行业应用继续深入发展,行业应用继续深入发展,AI 数据中心的数量和规模将会持续增数据中心的数量和规模将会持续增 行业专题研究行业专题研究
34、 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 10 of 53 加。加。这一趋势受到数据量增加和应用需求的推动、ChatGPT 带来的算力增量需求以及技术创新的支持。AI 数据中心作为支持大规模数据处理、深度学习模型训练和推理的关键设施,将发挥重要作用,推动人工智能技术的广泛应用和进一步的创新。数据量的增加和数据量的增加和 AI 应用的扩展是应用的扩展是 AI 数据中心发展的重要驱动因素。数据中心发展的重要驱动因素。随着物联网、社交媒体和传感器技术等数据源的增多,AI 数据中心需要处理和存储更大规模的数据集。根据 IDC 报告,在 2014-2020 年,平均每个 IT
35、人员管理的数据量从 230GB 增加到 1231GB,超过 5 倍。而企业数据则预计将以 42.2%的速度增长。同时,人工智能技术在各行各业的广泛应用以及对深度学习模型的训练需求也促使了对 AI 数据中心的需求增加。图图 10:数据呈快速增长趋势:数据呈快速增长趋势 数据来源:IDC,国泰君安证券研究 大模型大模型的出现带来了算力的增量需求。的出现带来了算力的增量需求。根据 OpenAI 发布的有关 GPT-3模型的文档,它包含 1750 亿个参数,需要进行数千万次的计算操作来完成一次推理任务。ChatGPT 的总算力消耗约为 3640PF-days,需要 78个投资规模 30 亿、单体算力
36、500P 的数据中心才能支撑运行,这样的规模和复杂性需要高性能的计算设备和大规模的并行计算能力,带动了AI 数据中心需求的增长。图图 11:大模型时代使算力需求翻倍提升大模型时代使算力需求翻倍提升 数据来源:IJCNN 58Zettabytes175Zettabytes2010年2015年2020年2025年E 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 11 of 53 技术创新也对技术创新也对 AI 数据中心的发展起到推动作用。数据中心的发展起到推动作用。新的处理器架构、高速网络、存储技术以及更高效的冷却和能源管理系统的出现,提升了数据中心的
37、性能和效率,为 AI 数据中心的发展提供了技术支持。由于数据量增长、计算能力要求、技术基础设施需求和经济效益等共同由于数据量增长、计算能力要求、技术基础设施需求和经济效益等共同驱动因素,预计专业的驱动因素,预计专业的 AI 数据中心增长趋势与大规模数据中心增长趋数据中心增长趋势与大规模数据中心增长趋势相同,未来几年势相同,未来几年 AI 数据中心呈现直线上升趋势。数据中心呈现直线上升趋势。图图 12:超大规模数据中心数量走势(单位:个)超大规模数据中心数量走势(单位:个)数据来源:Statista,国泰君安证券研究 图图 13:超大规模数据中心数量市场规模预测(单位:十亿美元)超大规模数据中心
38、数量市场规模预测(单位:十亿美元)数据来源:PrecedenceResearch,国泰君安证券研究 图图 14:中国整体中国整体 IDC 业务市场规模及预测(单位:亿元)业务市场规模及预测(单位:亿元)02004006008002015年2016年2017年2018年2019年2020年2021年005006007000%5%10%15%20%25%30%35%40%45%50%0040005000600070002017年 2018年 2019年 2020年 2021年 2022年E2023年E2024年E 行业专题研究行业专题研究 请务必阅读正文
39、之后的免责条款部分请务必阅读正文之后的免责条款部分 12 of 53 数据来源:科智咨询,国泰君安证券研究 AI 数据中心主要包括服务器、存储设备、网络设备、冷却系统以及电数据中心主要包括服务器、存储设备、网络设备、冷却系统以及电源设备等部分。源设备等部分。这些组成部分共同构成了一个高效、可靠的基础设施,为数据中心提供了强大的计算能力和存储能力,支持 AI 算法的运行和数据的处理。服务器是数据中心的核心,用于执行复杂的计算任务和运行人工智能算服务器是数据中心的核心,用于执行复杂的计算任务和运行人工智能算法。法。数据中心的算力大小取决于服务器的规模和数量,较大规模的服务器意味着更多的处理单元和计
40、算资源,从而提供更强大的计算能力。存储设备在存储设备在 AI 数据中心中起着重要的作用,用于存储和管理大量的数数据中心中起着重要的作用,用于存储和管理大量的数据集和模型。据集和模型。这些存储设备包括硬盘阵列(RAID)、网络附加存储(NAS)等,它们为数据的存储和访问提供支持。存储设备的容量和性能决定了数据中心能够处理和存储的数据规模。更大容量和更高速的存储设备可以支持更多数据的存储和访问,从而为算力的发挥提供了必要的支持。网络设备在数据中心中起到连接和传输数据的关键作用。网络设备在数据中心中起到连接和传输数据的关键作用。AI 数据中心需要高速、可靠的网络设备来连接服务器和存储设备以实现数据的
41、快速传输,以及数据中心内部各个组件之间的高效通信。快速的数据传输和高效的通信能够提升算力的利用效率和数据处理的速度。由于大量的服务器和计算由于大量的服务器和计算设备会产生大量的热量,数据中心需要强大的设备会产生大量的热量,数据中心需要强大的冷却系统来保持设备的正常运行温度。冷却系统来保持设备的正常运行温度。冷却系统确保数据中心的温度适宜,防止设备过热而影响性能和可靠性。高效的冷却系统可以确保数据中心的稳定运行,保障算力的持续发挥。电源设备是数据中心的基础设施之一,提供稳定的电力供应,保障数据电源设备是数据中心的基础设施之一,提供稳定的电力供应,保障数据中心稳定运行。中心稳定运行。发电机、UPS
42、(不间断电源系统)和电力配电系统等电源设备提供持续稳定的电力供应,确保数据中心不会因为电力问题而中断运行,保障算力的连续可用性。图图 15:各部件共同构建高算力各部件共同构建高算力 AI 数据中心数据中心 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 13 of 53 数据来源:英伟达官网 在在 AI 数据中心中,服务器、存储设备、网络设备、冷却系统和电源设数据中心中,服务器、存储设备、网络设备、冷却系统和电源设备的价值量占比会根据数据中心的规模、需求和架构设计等因素而有所备的价值量占比会根据数据中心的规模、需求和架构设计等因素而有所不同。不同。一
43、般服务器占据较大的比例,服务器是 AI 数据中心的核心部分,用于执行复杂的数据处理和机器学习任务,根据中国信息通信研究院的研究数据,其价值量约占总体的 70%左右。存储设备在 AI 数据中心中起到关键的作用,用于存储大规模的数据集、训练数据和模型参数,约占总体的15%至30%。根据前瞻研究院的数据显示,网络设备提供高速、可靠的数据传输和连接,其比例较低,约占总体的 15%至 20%,但仍然是不可或缺的部分。冷却系统和电源设备的比例相对较低,分别占总体的 5%至 15%,但它们对数据中心的可靠性和稳定运行至关重要。具体价值量占比因需求、行业差异和技术等因素有所不同。图图 16:英伟达数据中心购置
44、预算构成英伟达数据中心购置预算构成 数据来源:英伟达官网,国泰君安证券研究 3.2.AIAI 服务器中,服务器中,GPUGPU 价值量最大价值量最大 AI 服务器是服务器是 AI 数据中心重要的组成部分数据中心重要的组成部分。AI 服务器是专门为人工智能应用而设计和配置的服务器,具备强大的计算能力和高效的数据处理能力,是执行 AI 任务和处理大规模数据的关键组件,为数据中心提供计算资源和算力,用于执行复杂的 AI 算法和模型。AI 服务器有两种主要架构:混合架构和基于云平台的架构。混合架构允许数据存储在本地,而基于云平台的架构利用远程存储技术和混合云存储来进行数据存储,70%20%10%服务器
45、存储软件与服务 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 14 of 53 即联合使用本地存储和云存储技术。AI 服务器通常采用异构架构,结合不同类型的处理器,例如 CPU 和加速卡(如 GPU、TPU 等),以提供更高的计算性能。这种异构架构使得服务器能够同时处理并行计算和特定的 AI 计算任务,加速数据处理和模型训练过程。作为数据中心的核心设备,AI 服务器承载着计算、存储和网络功能,为数据中心的运行提供稳定的支持,以满足模型训练、推理和数据处理等任务的需求。其可扩展性使其能够适应不断增长的计算和存储需求,保持数据中心的性能和效率。表表 3
46、:AI 服务器主要使用混合架构和云平台架构服务器主要使用混合架构和云平台架构 架构架构 描述描述 优点优点 缺点缺点 混合混合 架构架构 可以将数据存储在本地,利用本地的计算资源进行 AI 模型的训练和推理 保证数据的安全性和隐私性 可能受限于本地的存储和计算能力 云平台云平台架构架构 使用远程存储技术和混合云存储(一种联合本地存储和云存储的技术)进行数据存储,利用云端的计算资源进行 AI 模型的训练和推理 提供弹性的存储和计算能力 可能存在数据的安全性和隐私性问题 数据来源:国泰君安证券研究 计算性能是衡量计算性能是衡量 AI 服务器性能的关键指标。服务器性能的关键指标。它取决于处理器的性能
47、和数量。对于 AI 任务,通常使用具有高度并行计算能力的处理器,例如中央处理器(CPU)、图形处理器(GPU)和张量处理器(TPU)。其中,浮点运算性能(FLOPS)、GPU 核心数和频率、内存带宽、存储系统性能、网络性能和延迟会对 AI 服务器的计算能力产生影响。浮点运算性能衡量服务器处理深度学习任务的能力,GPU 核心数和频率决定了并行计算的速度,更多的核心和更高的频率可以提供更快的计算速度和更高的并行处理能力,从而加速 AI 算法和模型的执行。内存带宽和存储系统性能影响数据读写效率,网络性能关乎服务器间数据传输,而延迟则与实时响应需求有关。这些指标综合考虑可以评估 AI 服务器的计算性能
48、,选择和权衡取决于具体应用场景和需求。AI 应用需要处理大规模的数据集和模型,因此存储容量和速度也是应用需要处理大规模的数据集和模型,因此存储容量和速度也是 AI服务器的重要属性。服务器的重要属性。AI 服务器需要提供足够的存储容量来存储数据和模型参数。同时,存储设备的读写速度也是至关重要的,它会影响数据的存取效率和模型训练的速度。传统的硬盘驱动器(HDD)可以提供较大的存储容量,而固态硬盘(SSD)则具有更快的读写速度和更低的访问延迟,对于快速的数据存取和模型加载至关重要。更大的内存容量和更快的内存带宽可以支持更大的内存容量和更快的内存带宽可以支持 AI 服务器的高效数据处理服务器的高效数据
49、处理和计算。和计算。内存容量和内存模块(RAM)会影响数据存储和传输能力。内存控制器的性能和总线架构决定了内存的带宽和效率。内存通道数量和频率也会影响内存的带宽和响应速度。此外,使用 ECC(Error-Correcting Code)内存可以提高数据完整性和服务器可靠性。AI 服务器需要具备高速稳定的网络连接,以便与其他服务器、客户端服务器需要具备高速稳定的网络连接,以便与其他服务器、客户端 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 15 of 53 和外部数据源进行通信和数据传输。和外部数据源进行通信和数据传输。AI 服务器的网络连接速度受
50、到多个部件性能的影响。网络接口卡(NIC)决定了服务器与网络之间的物理连接和数据传输速率。不同网络连接介质(如以太网电缆或光纤)具有不同的传输能力和带宽,影响服务器的连接速度。网络交换机和路由器的性能对数据包的路由和转发起着关键作用,它们的处理能力和转发能力会直接影响服务器的网络连接速度。网络协议和协议栈的优化以及网络拓扑和带宽管理策略也会对服务器的网络连接速度产生影响。为了确保服务器的稳定性和可靠性,为了确保服务器的稳定性和可靠性,AI 服务器需要有效的散热和冷却服务器需要有效的散热和冷却系统。系统。散热器、风扇和冷却技术的效率决定了服务器在高负载条件下的散热能力。良好的散热和冷却设计可以降
51、低温度,提高系统性能和可靠性。AI 服务器的高电源能效可以提供更好的性能功耗比,降低能源消耗和服务器的高电源能效可以提供更好的性能功耗比,降低能源消耗和运行成本。运行成本。电源单元通过稳定的电压输出和高效的电能转换提供稳定可靠的电源供应,并减少能量损耗。电源管理模块控制和监测电源的运行状态,提供精确的电源调节和能量管理,以优化服务器的能效性能。图图 17:AI 服务器拆箱图服务器拆箱图 数据来源:英伟达官网,国泰君安证券研究 AI 服务器中的主要元器件包括服务器中的主要元器件包括 CPU、GPU 板组、内存、存储、网络接板组、内存、存储、网络接口卡、机箱、主板、散热系统和电源。口卡、机箱、主板
52、、散热系统和电源。CPU 负责执行计算任务和处理数据,是服务器的主要计算引擎,可以进行复杂的算法和模型运算。加速卡(如 GPU、TPU)提供高性能的并行计算能力,用于加速机器学习和深度学习任务,可以加快模型训练和推理的速度。内存(RAM)用于临时存储数据和程序代码,提供快速的数据访问和处理能力。AI 服务器通常配备大容量的内存,以支持大规模的数据集和模型。存储设备用于持久化存储数据和模型,包括硬盘驱动器(HDD)、固态硬盘(SSD)和存储阵列(RAID)等,提供高速的数据读写能力和大容量的存储空间。网络接口卡(NIC)提供高速稳定的网络连接,以便与其他服务器、客户端和外部数据源进行数据传输。机
53、箱是 AI 服务器的外部框架,提供支撑和保护内部组件的结构。背板提供连接各个部件的接口,而布线则用于传输电力和数据信号。主板是 AI 服务器的核心电路板,连接各个部件并提供电源和数据传输的接口,承载着 CPU、内存插槽、扩展插槽 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 16 of 53 和其他重要组件。散热系统用于控制服务器的温度并保持其在安全范围内运行。散热片吸收和分散热量,而风扇则提供气流来冷却服务器内部。电源提供服务器所需的电能,确保各个组件正常运行。在训练型在训练型 AI服务器中,通常服务器中,通常 CPU价值量占比价值量占比 9.8
54、%,GPU占比占比 72.8%,内存占比内存占比 8.7%,其他占比,其他占比 8.7%。推理型。推理型 AI 服务器中,服务器中,CPU 价值量占价值量占比比 10%,GPU占比占比 50%,内存占比,内存占比 10%,存储占比,存储占比 5%,其他占比,其他占比 25%。以英伟达训练、推理和分析通用的高性能 AI 系统 Nvidia DGX H100 为例进行成本拆分,GPU 价值量占比则更高,占比 86.66%。而 CPU 价值量则占比 2.31%,内存占比 3.49%,存储占比 1.54%,网络接口卡占比4.85%,其他占比 1.15%。表表 4:Nvidia DGX H100 BOM
55、 成本明细成本明细 元器件元器件 成本成本(美元美元)配置和性能描述配置和性能描述 CPUCPU$5,200$5,200 Dual Intel Xeon Platinum 8480C Processors 112 Cores total,2.00 GHz(Base),3.80 GHz(Max Boost)GPUGPU 板组板组$195,000$195,000 8GPU+4 NVSwitch Baseboard 内存内存$7,860$7,860 2TB 存储存储$3,456$3,456 OS:2x 1.92TB NVMe M.2 网络接口卡网络接口卡$10,908$10,908 4x OSFP
56、ports serving 8x single-port NVIDIA ConnectX-7 VPI Up to 400Gb/s InfiniBand/Ethernet 2x dual-port QSFP112 NVIDIA ConnectX-7 VPI Up to 400Gb/s InfiniBand/Ethernet 机箱(包括机箱、机箱(包括机箱、背板、布线)背板、布线)$563$563 Height:14.0in(356mm),Width:19.0in(482.2mm),Length:35.3in(897.1mm)主板主板$360$360 Host baseboard manageme
57、nt controller (BMC)with RJ45 散热系统(包括散散热系统(包括散热片和风扇)热片和风扇)$463$463 散热,运行温度 5 30C(41 86F)电源电源$1,200$1,200 10.2kw 电力供应 总计总计$225,010$225,010 数据来源:英伟达官网,半导体行业观察,国泰君安证券研究 表表 5:不同类型:不同类型 AI 服务器服务器 BOM 成本明细成本明细 元器件元器件 训练推理型 AI 服务器 Dell EMC PowerEdge C4140 训练型 AI 服务器 HPE Apollo 6500 Gen10 Plus 推理型 AI 服务器 NVI
58、DIA EGX A100 部件部件 总价(元)价值量占比 总价(元)价值量占比 总价(元)价值量占比 CPUCPU 3-11 万 9.87%3-11 万 1.06%1.5-3 万 7.32%GPUGPU 13.2-132 万 43.42%264 万 93.35%10 万 48.78%内存内存 3.6 万 11.84%4.8 万 1.70%8 千 3.90%存储存储 4 千-6 万 1.32%8 千-12 万 0.28%2-6 千 0.98%网络网络 2 千-6 万 0.66%2 千-6 万 0.07%3 万 14.63%其他其他 10 万 32.89%10 万 3.54%5 万 24.39%合
59、计合计 32.8-265.6 万 100%283.8-403.8 万 100%19.5-26.5 万 100%行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 17 of 53 数据来源:英伟达官网,戴尔科技官网,惠普官网,国泰君安证券研究 图图 18:AI 服务器各元器件价值量占比服务器各元器件价值量占比 数据来源:IDC,国泰君安证券研究 AI 服务器的组装和集成价值量取决于多个因素,包括服务器的型号、服务器的组装和集成价值量取决于多个因素,包括服务器的型号、规模和配置等。规模和配置等。组装集成价值量可以根据组装过程中所需的时间、人力成本以及技术要
60、求来衡量。通常情况下,组装集成价值量相对于整个服务器的总成本而言较小,通常在几个百分比以内,具体数值可能会因不同的服务器和供应商而有所差异。对于高端的 AI 服务器,组装集成成本相对较高,因为它们通常具有复杂的硬件配置和特殊的要求。以英伟达的 Nvidia DGX H100 为例,服务器的组装成本为 1,485 美元,占整个服务器的 0.553%。在整个 AI 服务器的总成本中,组装集成过程所占的比例相对较小。组装集成过程对于确保服务器的正常运行和性能发挥非常重要。精确的组装集成可以确保各个元件正确安装、连接和配置,从而保证服务器的稳定性和可靠性。虽然组装集成价值量相对较小,但它对服务器的整体
61、性能和可用性具有重要影响。在一个在一个 AI 数据中心中,最重要的部件通常是服务器。数据中心中,最重要的部件通常是服务器。服务器是执行 AI计算任务、存储和处理大量数据的核心设备,为支持 AI 应用和服务提供高性能的处理能力、存储容量和网络连接。在一些大型 AI 数据中心中,服务器的投入比例通常在整体投入的 60%至 70%之间,占据较大的比例。GPU 是是 AI 服务器中价值量最高的部件,承担了大部分的计算任务和深服务器中价值量最高的部件,承担了大部分的计算任务和深度学习模型的训练与推理度学习模型的训练与推理。在整个 AI 服务器的投入比例中,GPU 通常占据较大的比例,大约在整体投入的 3
62、0%至 60%之间。GPU 提供了强大的并行计算能力和高效的深度学习加速,是实现高性能AI 计算的关键。其他部件如 CPU、存储、网络设备、冷却系统和电源等在整体投入中的比例相对较小,但它们同样是确保服务器正常运行和数据中心高效运作的必要组成部分。CPU 作为服务器的核心计算单元发挥着重要作用,而存储、网络设备、冷却系统和电源等则在支持和维护服务器功能上起到关键作用。整个 AI 硬件产业链中的各个环节紧密合作,共同构建了支持 AI 应用和服务的完整生态系统。8.09%56.33%20.65%11.27%3.66%CPUGPU内存存储其他 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部
63、分请务必阅读正文之后的免责条款部分 18 of 53 4.全球全球 AI服务器市场空间广阔,中国厂商表现亮眼服务器市场空间广阔,中国厂商表现亮眼 4.1.生成式人工智能驱动全球生成式人工智能驱动全球 AIAI 服务器市场持续增长服务器市场持续增长 作为人工智能产业发展的核心基础设施,全球作为人工智能产业发展的核心基础设施,全球AIAI服务器市场持续增长服务器市场持续增长。根据 IDC 统计,2021 年全球 AI 服务器市场规模达到 156.3 亿美元,同比增速为 39.06%,得益于人工智能各细分应用方向需求的强劲增长,AI服务器市场增速从 2020 年新冠疫情的冲击下实现了快速恢复,201
64、8 年至 2021 年的年复合增速为 25.01%,实现了较快增长。IDC 预计,到 2026年全球 AI 服务器市场规模将达到 347.1 亿美元,2021 年至 2026 年的年复合增速为 17.30%,将继续保持相对较快增长的态势。同时,全球 AI服务器的市场规模占整体服务器市场规模的比例将从 2021 年的 15.25%提高至 2026 年的 21.69%,AI 服务器市场规模增速高于整体服务器市场规模的增速,成为全球服务器行业保持景气增长的核心驱动力。图图 1 19 9:全球全球 AIAI 服务器市场规模持续增长服务器市场规模持续增长 图图 2 20 0:全球全球 AIAI 服务器市
65、场规模占比持续提升服务器市场规模占比持续提升 数据来源:IDC,国泰君安证券研究 数据来源:IDC,国泰君安证券研究 生成式人工智能将成为全球生成式人工智能将成为全球 AIAI 服务器市场持续增长的新动能。服务器市场持续增长的新动能。随着以GPT 模型为代表的的生成式人工智能大模型的快速迭代,以及以 ChatGPT、Microsoft 365 Copilot 等为代表的生成式人工智能应用使用量的激增,生成式人工智能对 AI 服务器的需求量正在爆发式增长。根据 IDC 统计,2022 年预计全球生成式人工智能对 AI 服务器的新增需求规模为 8.2 亿美元,预计到 2026 年其新增需求规模将达
66、到 109.9 亿美元,2022 年至2026 年的年复合增速高达 91.34%,同期其他类型 AI 服务器的年复合增速仅为 6.15%。预计生成式人工智能对 AI 服务器的需求占比将从 2022年的 4.21%快速提高至 2026 年的 31.66%,成为全球 AI 服务器市场持续增长的新动能。0.00%10.00%20.00%30.00%40.00%50.00%00全球AI服务器市场规模(亿美元)同比0%5%10%15%20%25%20212022E2023E2024E2025E2026E全球AI服务器占整体服务器市场规模比例 行业专题研究行业专题研究 请务必阅读正文
67、之后的免责条款部分请务必阅读正文之后的免责条款部分 19 of 53 图图 2 21 1:全球生成式全球生成式 AIAI 服务器市场规模有望爆发式增长服务器市场规模有望爆发式增长 图图 2 22 2:全球生成式全球生成式 AIAI 服务器市场规模占比快速提升服务器市场规模占比快速提升 数据来源:IDC,国泰君安证券研究 数据来源:IDC,国泰君安证券研究 推理推理型型服务器将逐渐成为全球服务器将逐渐成为全球 AIAI 服务器的服务器的主流主流。在生成式大模型发展早期,AI 服务器需求以模型训练为主,因而训练型服务器占据市场主体地位。随着后续生成式 AI 应用的快速发展,AI 服务器将主要满足数
68、据的分析及模型输出需求,因而推理型服务器将逐渐成为市场主流。根据IDC 统计,2021 年全球 AI 服务器市场中 57.33%为训练型服务器,但预计在 2024 年推理型服务器市场规模将首次超越训练型服务器,在 2026年推理型服务器的市场占比将达到 53.01%,与训练型服务器的份额差距将持续拉开。图图 23:推理型服务器将逐渐成为全球推理型服务器将逐渐成为全球AIAI 服务器的主流服务器的主流 数据来源:IDC,国泰君安证券研究 AIAI 云计算及云计算及边缘计算将成为全球边缘计算将成为全球 AIAI 服务器服务器增速更快的部署方式。增速更快的部署方式。一方面,由于生成式 AI 大模型的
69、模型参数越来越大,其训练所需的 AI 算力正在快速增长,传统本地部署的算力中心越来越难以满足大模型的算力需求,导致基于云化部署的 AI 云计算服务需求正在快速增长。另一方面,随着各类物联网设备端生成的数据量增速超过了网络带宽的增速,在更接近数据生成的地方直接进行数据运算和分析的需求正在快速增长,这导致基于边缘计算的 AI 服务器实现更快的增长速度。根据 IDC统计数据,2021 年至 2026 年间,预计基于本地集中部署的、云化部署的以及边缘计算端部署的AI服务器市场规模的年复合增速分别为8.2%、0%100%200%300%0501001502022E2023E2024E2025E2026E
70、全球生成式AI服务器市场规模(亿美元)同比0%10%20%30%40%2022E2023E2024E2025E2026E全球生成式AI服务器占整体AI服务器市场规模比例0%10%20%30%40%50%60%70%80%90%100%202020212022E2023E2024E2025E2026E训练型服务器市场占比推理型服务器市场占比 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 20 of 53 19.8%及 26.1%;预计 2026 年全球 AI 服务器中有 56.6%基于云化部署,是最主流的部署方式,20%基于边缘计算部署,是增速最快的
71、部署方式。表表 6 6:云计算机边缘计算成为全球:云计算机边缘计算成为全球 AIAI 服务器市场规模(亿美元)增速更快的部署方式服务器市场规模(亿美元)增速更快的部署方式 2021 2022E 2023E 2024E 2025E 2026E 2021-2026 CAGR 本地集中部署 55 63 74 79 80 81 8.2%云化部署 80 104 135 158 179 196 19.8%边缘计算部署 22 29 39 50 59 69 26.1%合计 156 195 248 286 318 347 17.3%数据来源:IDC,国泰君安证券研究 加速计算加速计算 AIAI 服务器更符合大规
72、模服务器更符合大规模 AIAI 运算的需求,成为运算的需求,成为 AIAI 服务器的主服务器的主流选择。流选择。加速计算 AI 服务器是指拥有一个或多个协处理器的AI 服务器,包括 GPGPU、FPGA 或 ASIC 协处理器,其更适合处理规模越来越大、算法越来越复杂的深度学习 AI 模型,因而已经成为目前 AI 服务器的主流选择。主要使用 CPU 进行运算的非加速计算 AI 服务器的市场规模仍将有一定增长,但其主要用于小型人工智能模型的推理以及部分训练负载。根据 IDC 统计,2021 年全球 AI 服务器中加速计算 AI 服务器市场规模为91 亿美元,2026 年将增长至 245 亿美元,
73、期间年复合增速为 22%,同期非加速计算的 AI 服务器市场规模的年复合增速仅为 9.3%。表表 7 7:加速计算加速计算 A AI I 服务器更符合大规模服务器更符合大规模 AIAI 运算的需求,成为运算的需求,成为 AIAI 服务器的主流选择服务器的主流选择 2021 2022E 2023E 2024E 2025E 2026E 2021-2026 CAGR 加速计算 91 121 162 195 222 245 22.0%非加速计算 65 74 85 91 96 102 9.3%合计 156 195 248 286 318 347 17.3%数据来源:IDC,国泰君安证券研究 多因素驱动下
74、,中国多因素驱动下,中国 AIAI 算力发展迎来黄金时期。算力发展迎来黄金时期。随着一系列支持性政策的陆续出台、海量数据的增加、算法模型的复杂化以及应用场景的深入发展,中国 AI 算力规模正在持续扩大。根据 IDC 数据,以半精度(FP16)测算中国的 AI 算力规模,2021 年中国 AI 算力规模达到 155.2 每秒百亿亿次浮点运算(EFLOPS),2022 年达到 268.0 EFLOPS,同比增长 72.7%,预计到 2026 年规模将达到 1271.4 EFLOPS,2021 年至 2026 年间中国 AI算力规模的年复合增长率达到 52.3%,将实现快速增长。作为参考,以双精度(
75、FP64)测算通用服务器算力,2021 年中国通用算力规模为 47.7 EFLOPS,预计 2026 年将提高至 111.3 EFLOPS,2021 年至 2026 年间的年复合增速仅为 18.5%。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 21 of 53 图图 2 24 4:中国中国 AIAI 算力规模预计将保持快速增长算力规模预计将保持快速增长 图图 2525:中国通用算力规模预计将稳定增长中国通用算力规模预计将稳定增长 数据来源:IDC,国泰君安证券研究 数据来源:IDC,国泰君安证券研究 现阶段中国现阶段中国 AIAI 服务器市场增速
76、领跑全球,未来仍有较大提升空间。服务器市场增速领跑全球,未来仍有较大提升空间。我国在 AI 产业发展早期更注重算力硬件建设,根据 IDC 统计数据,2021年中国 AI 服务器市场规模达到 59.2 亿美元,同比增长 68.2%,2018 年至 2021 年的年复合增速高达 52.14%,为全球增速的 2 倍以上,增速领跑全球;中国 AI 服务器占全球市场之比从 2018 年的 21.01%提高至 2021年的 37.88%,达到 3 成以上,是全球 AI 服务器市场实现快速增长的主要驱动者。IDC 预计未来中国 AI 服务器市场规模仍将保持较为稳健的增长态势,预计到 2026 年市场规模达到
77、 123.4 亿美元,2021 年至 2026 年间的年复增速为 15.82%。图图 2 26 6:中国中国 AIAI 服务器市场规模预计仍将稳健增长服务器市场规模预计仍将稳健增长 图图 2 27 7:中国中国 AIAI 服务器全球市场占比已超服务器全球市场占比已超 3 3 成成 数据来源:IDC,国泰君安证券研究 数据来源:IDC,国泰君安证券研究 4.2.中国厂商在全球中国厂商在全球 AIAI 服务器市场中处于领军地位服务器市场中处于领军地位 中国中国品牌品牌厂商厂商在全球在全球 AIAI 基础设施基础设施厂商厂商中中处于领军地位,处于领军地位,2 2021021 年年实现了实现了最快增速
78、最快增速。根据 IDC 数据,浪潮信息、新华三(紫光股份)、联想是 2021年全球增速前三快的 AI 基础设施(即 AI 服务器+AI 存储合计)品牌厂商。2021 年,浪潮信息 AI 基础设施营收同比增长 68.3%,市场份额从2020 年的 14.6%跃升至 17.8%,位居全球第一;新华三营收同比增长67.6%,市场份额从 3.3%上升至 4.0%;联想营收同比增长 57.2%,市场份额从 4.6%上升至 5.2%;中国品牌厂商中只有华为因为受到地缘政治因素的影响,其营收同比下降 37.9%,市场份额从 9.4%下降至 4.2%。海0%50%100%150%020040060080010
79、009 2020 2021 2022 2023 2024 2025 2026中国AI算力规模(EFLOPSFP16)同比0%5%10%15%20%25%30%35%0204060801001202019 2020 2021 2022 2023 2024 2025 2026中国通用算力规模(EFLOPSFP64)同比0.00%10.00%20.00%30.00%40.00%50.00%60.00%70.00%80.00%020406080100120140中国AI服务器市场规模(亿美元)同比0%10%20%30%40%中国AI服务器市场规模占全球市场比 行业专题研究行业专题
80、研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 22 of 53 外品牌厂商中戴尔份额从 16.4%下降至 15.7%,惠普份额从 9.8%下降至8.9%,IBM 份额从 6.4%下降至 4.2%,整体份额呈现下降状态。若单独考虑 AI 服务器的市场格局,2021 年浪潮信息以 20.9%的份额登顶全球 AI服务器市场,联想、新华三、华为市场份额分别为 5.8%、4.0%及 2.9%,位列全球第 4、6、7 位。图图 2 28 8:中国品牌厂商在全球中国品牌厂商在全球 AIAI 基础设施中市场份额较高基础设施中市场份额较高 图图 2929:2 2021021 年,年,浪
81、潮信息领跑全球浪潮信息领跑全球 AIAI 服务器市场服务器市场 数据来源:IDC,国泰君安证券研究 数据来源:IDC,国泰君安证券研究 中国市场中,浪潮信息占据中国市场中,浪潮信息占据 AIAI 加速计算加速计算服务器市场的半壁江山。服务器市场的半壁江山。根据IDC 数据,2021 年浪潮信息的 AI 加速计算服务器在中国市场营收同比增长 61.6%,市场份额达到 52.4%,连续五年以超过 50%的市占率稳居行业第一;新华三、宁畅、安擎的 AI 服务器收入同比增速分别为 419.0%、300.3%、285.9%,是增速前三快的厂商,市场份额分别为 7.8%、7.9%、6.8%,均位居行业前五
82、名;华为则因受地缘政治影响,其收入下滑了37.1%,市场份额下降至 7.7%,位居行业第四。表表 8:浪潮信息占据中国浪潮信息占据中国 AI 加速计算服务器市场的半壁江山加速计算服务器市场的半壁江山 2021 年营收同比增速年营收同比增速 2021 年中国市场份额年中国市场份额 浪潮信息浪潮信息 61.6%52.4%宁畅宁畅 300.3%7.9%新华三新华三 419.0%7.8%华为华为-37.1%7.7%安擎安擎 285.9%6.8%其他其他 83.8%17.4%数据来源:IDC,国泰君安证券研究 4.2.1.浪潮信息浪潮信息:全球全球 AI 服务器领军企业服务器领军企业 浪潮信息与产业巨头
83、进行深入合作,为大型互联网厂商提供高质量的浪潮信息与产业巨头进行深入合作,为大型互联网厂商提供高质量的 AIAI服务器。服务器。在近 10 年前,浪潮信息就与全球算力芯片巨头英伟达及英特尔建立了联合实验室,以探索实现性能密集型计算负载的并行化。随后,由于阿里巴巴、腾讯、百度、字节跳动等全球范围内的互联网龙头厂商在语音识别、图像识别等领域对 AI 加速运算的需求开始快速增长,浪0.0%10.0%20.0%30.0%40.0%50.0%其他新华三华为IBM联想惠普戴尔浪潮信息20212020浪潮信息浪潮信息,20.9%戴尔戴尔,13.0%惠普惠普,9.2%联想联想,5.8%IBM,4.1%新华三新
84、华三,4.0%华为华为,2.9%其他其他,40.1%行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 23 of 53 潮信息开始为互联网巨头进行产品优化设计服务,为其提供了一系列高质量的 AI 加速卡及服务器产品。随着中国互联网巨头公司的快速发展,浪潮 AI 服务器的营收体量也保持了快速增长状态,使其成长为全球及中国市场 AI 服务器的领军企业。浪潮信息浪潮信息 AIAI 计算产品线齐全,计算产品线齐全,可面向客户需求快速推动产品迭代可面向客户需求快速推动产品迭代。浪潮信息可以提供从单机到集群、从边缘计算端到超大规模数据中心端的硬件产品组合,且能够根
85、据市场需求快速推出最新的 AI 计算产品。其中 NF5688 是公司面向超大规模数据中心推出高性能、高兼容、强拓展的新一代 NVLink AI 服务器,其搭载 8 颗英伟达 A800 组成的 HGX 计算模块以及2颗第三代英特尔至强处理器,单机AI计算性能达到5 PFLOPS,兼容主流的 x86+CUDA 应用开发生态,可以满足大规模 NLP/CV/NMT/DLRM模型的训练和推理需求。NF5488 同样使用 HGX 计算模块并搭配 2 颗 64核 AMD 处理器,具备强大的 AI 训练和推理能力,可用于图像、视频、语音识别、智能客服等典型 AI 应用场景。NF5468 则具备更强的硬件兼容性
86、,可根据用户需求灵活搭载英伟达、AMD、英特尔、寒武纪、燧原等进口及国产加速卡。NF5448 搭载 4 颗英伟达 Ampere 架构 GPU 以及 2颗 AMD CPU,可以为客户提供更低成本的 AI 计算服务。NE3412 则是公司面向边缘计算场景提供的便携式 AI 服务器,可以满足边缘 AI 推理及数据迁移等场景的需求。图图 30:NF5688 性能强劲,可满足大模型训练及推理需求性能强劲,可满足大模型训练及推理需求 数据来源:浪潮信息官网 浪潮信息浪潮信息AIAI计算产品性能突出,在权威性能计算产品性能突出,在权威性能测评测评榜单中多次霸榜夺冠。榜单中多次霸榜夺冠。MLPerf 是影响力
87、最广的国际 AI 计算性能基准测评,由图灵奖得主大卫帕特森联合顶尖的学术机构发起成立。MLPerf 每年分别组织 AI 推理及AI 训练性能测试各两次,基于目前应用最主流的 AI 场景赛道分别进行性能测试,涵盖了自然语言处理(BERT)、智能推荐(DLRM)、语音识别(RNN-T)、图像识别(ResNet)、医学影像分割(3D U-Net)、轻量级目标物体检测(RetinaNet)、重量级目标物体检测(Mask R-CNN)及强化学习(MiniGo)共八大类场景。2021 年浪潮信息的 AI 服务器共在四次测评中的细分场景固定任务赛道上获得 44 项冠军,占据全部项目总数的 54.32%;20
88、22 年浪潮信息再次获得 49 项冠军,占据全部项目总数的62.03%;其中在 2022 年的两次数据中心推理服务器性能测评中,公司在 32 个细分项目中获得 29 项冠军,显示出公司产品 AI 算力在全球范围内的领先性。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 24 of 53 表表 9 9:2 2021021 年浪潮信息在年浪潮信息在 MLPerfMLPerf 测评中夺冠测评中夺冠 4 44 4 次,占到项目总数的次,占到项目总数的 5 54.32%4.32%单位:次 数据中心推理数据中心推理 边缘推理边缘推理 单机训练单机训练 合计合计
89、占比占比 浪潮信息浪潮信息 17 16 11 44 54.32%英伟达英伟达 14 3 17 20.99%戴尔戴尔 11 11 13.58%高通高通 2 3 5 6.17%超微半导体超微半导体 2 2 2.47%宁畅宁畅 2 2 2.47%数据来源:MLPerf,国泰君安证券研究 表表 1010:2 2022022 年浪潮信息在年浪潮信息在 MLPerfMLPerf 测评中夺冠测评中夺冠 4 49 9 次,占到项目总数的次,占到项目总数的 62.03%62.03%单位:次 数据中心推理数据中心推理 边缘推理边缘推理 单机训练单机训练 合计合计 占比占比 浪潮信息浪潮信息 28 18 3 49
90、62.03%英伟达英伟达 7 7 8.86%新华三新华三 1 3 4 5.06%宁畅宁畅 3 1 2 6 7.59%KRAI 5 5 6.33%高通高通 2 2 2.53%中科院自动化所中科院自动化所 2 2 2.53%阿里巴巴阿里巴巴 1 1 1.27%联想联想 1 1 1.27%华硕华硕 1 1 1.27%英特尔英特尔 1 1 1.27%数据来源:MLPerf,国泰君安证券研究 浪潮信息具备软硬一体的全栈浪潮信息具备软硬一体的全栈 AIAI 能力,可为客户提供场景化的能力,可为客户提供场景化的 AIAI 解决解决方案。方案。在丰富的 AI 硬件之上,公司还提供 AIStation 人工智能
91、开发平台。该平台可以实现 GPU 资源池化,统一调度企业 AI 计算资源;同时还提供完整的 AI 软件栈和开发流程,AutoML 塔尖可以帮助实现企业级的自动化 AI 模型构建,提高模型开发效率;平台也支持 TensorFlow、Pytorch 等主流 AI 框架拓展分布式训练,在 resnet50 做分布式训练测试时,其 GPU 加速比最高可提升 90%;其支持通过数据缓存功能大幅提升模型训练效率,根据 resnet50 测试数据,在 70 任务并发下,AIStation数据缓存功能可以帮助模型训练效率提升 72%。基于公司软硬一体的全栈能力,公司可以为智慧医疗、生命科学、自动驾驶等领域提供
92、场景化的 AI 解决方案。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 25 of 53 图图 3 31 1:AIStationAIStation 数据缓存功能可提升模型训练效率数据缓存功能可提升模型训练效率 图图 3 32 2:AIStationAIStation 分布式训练中分布式训练中 GPUGPU 加速比最高可提升加速比最高可提升 9 90%0%数据来源:浪潮信息官网 数据来源:浪潮信息官网 图图 33:浪潮信息通过软硬一体的全栈浪潮信息通过软硬一体的全栈 AI 能力,为下游客户提供场景化的能力,为下游客户提供场景化的 AI 解决方案解决方
93、案 数据来源:浪潮信息官网 4.2.2.紫光股份紫光股份:全面拥抱:全面拥抱 AIGC,快速崛起的,快速崛起的 AI 服务器龙头企业服务器龙头企业 紫光股份紫光股份全面拥抱全面拥抱 AIGCAIGC 时代,市场份额快速提升。时代,市场份额快速提升。紫光股份旗下子公司新华三是国内数字化解决方案的核心供应商,在企业级交换机、企业级路由器、x86 通用计算服务器、GPU 加速计算服务器等众多核心产品品类上市占率位居国内前三名,全面参与智慧计算、智能存储、智能联接、网络安全各环节市场竞争。公司与英伟达较早便建立了合作伙伴关系,随着 AI 应用的快速发展,公司选择全面拥抱 AIGC 的战略,加大对AI
94、服务器的研发投入,市场份额呈现快速提升之势。根据 IDC 数据,2021年公司在中国市场的 AI 服务器营收同比增速高达 419%,市场份额已经跃升至行业第三名,是国内增速最快的 AI 服务器公司。紫光股份紫光股份拥有多元化的拥有多元化的 AIAI 服务器产品线布局,基于服务器产品线布局,基于 H H800800 芯片的高性能芯片的高性能 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 26 of 53 AIAI 服务器已经服务器已经推出。推出。公司推出了 UniServer R5000 系列 AI 服务器,可覆盖从训练到推理的 AI 全场景,其中旗
95、舰的 R5500 系列可以满足大模型的训练需求,采用模块化设计理念,整机分为 GPU 计算模块、CPU 计算模块、硬盘模块、风扇模块、电源模块,均可独立插拔维护。R5500 G5是搭载 A800 GPU 的 AI 服务器,CPU 计算模块支持 2 颗英伟达三代至强,GPU 计算模块支持 HGX A800 8-GPU 模组,8 块 A800 GPU 通过 6 个 NVSWITCH实现 400GB/s 的全互联,AI 算力较上一代可提升多达 20 倍,可应用于语音识别、图像分类、机器翻译等多种人工智能业务场景。R5500 G6 则是搭载 H800 GPU 的全新 AI 服务器,CPU 计算模块支持
96、 2 颗英特尔四代至强或 2 颗 96 核 AMD 芯片,GPU 计算模块支持 HGX H800 8-GPU 模组,算力相较上一代产品实现 3.4 倍提升,可用于超大规模的 AI 大模型训练。图图 3 34 4:R R55005500 系列采用先进的模块化设计理念系列采用先进的模块化设计理念 图图 3 35 5:R R55005500 系列支持系列支持 8 8 颗颗 A A800800 或或 H H800 800 GPUGPU 计算计算 数据来源:新华三官网 数据来源:新华三官网 紫光股份打造了全流程的傲飞智能算力紫光股份打造了全流程的傲飞智能算力中枢平台。中枢平台。傲飞中枢可以提供 AI模型
97、训练、模型评估、模型导出、在线推理等功能,实现了 AI 的全流程,从智能标注、智能匹配到智能训练和智能调优,以及最后实现智能推理,且支持最多 4096 个节点同时部署,满足大规模 AI 计算需求,更高显著提升 AI 应用开发效率,更好的满足科学、交通、能源、教育等行业 AI 计算需求。图图 36:浪潮信息通过软硬一体的全栈:浪潮信息通过软硬一体的全栈 AI 能力,为下游客户提供场景化的能力,为下游客户提供场景化的 AI 解决方案解决方案 数据来源:新华三官网 紫光股份上线了小智紫光股份上线了小智 AIAI 实验室功能,方便客户体验实验室功能,方便客户体验 AIAI 应用开发流程。应用开发流程。
98、通过使用小智 AI 实验室,政企客户可以随时随地的使用基于云端的 AI 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 27 of 53 加速计算平台,并在技术专家的帮助下快速创建和部署数据密集型的 AI应用原型,从而方便在后续实际 AI 应用开发过程中选择更优、更可靠的软件和基础架构,使政企客户更快的过渡到 AI-Native 的应用环境之中,从而带动公司 AI 基础设施的销售。图图 37:小智小智 AI 实验室实验室可以帮助客户快速体验可以帮助客户快速体验 AI 应用开发流程应用开发流程 数据来源:新华三官网 4.2.3.中科曙光:稳步增长的老牌
99、智能计算龙头企业中科曙光:稳步增长的老牌智能计算龙头企业 中科曙光是国内高性能智能计算产业的开拓者之一。中科曙光是国内高性能智能计算产业的开拓者之一。高性能计算 HPC 被认为是人工智能技术的发动机,中科曙光是国内高性能计算技术的领军企业,凭借其技术领先优势,提出了基于“HPC+大数据处理”的人工智能开放框架,为大型政企用户提供完整的人工智能解决方案。其推出了专门面向人工智能、深度学习、高性能异构计算领域设计的 XMachine系列专用服务器,拥有较高的异构硬件兼容性,可以兼容 GPU、FPGA、寒武纪神经网络芯片等各类型加速计算单元,同时具备高效率的电源设计、超高密度和超高传输速率等特性。公
100、司 AI 计算产品目前典型的应用项目有咪咕视频 AI 基础平台、中国移动 AI 基础平台等。图图 38:中科曙光拥有丰富的异构智能计算硬件体系:中科曙光拥有丰富的异构智能计算硬件体系 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 28 of 53 数据来源:中科曙光官网 中科曙光推出容器化人工智能开发平台,加速中科曙光推出容器化人工智能开发平台,加速 AIAI 应用落地。应用落地。公司的容器化人工智能开发平台解决方案实现了对深度学习开发环境的快速部署,针对深度学习开发流程,对运算资源按照训练任务进行分割和分发,并额外支持容器镜像管理、权限管理、交互
101、界面图形化等功能,以帮助用户更快速的介入人工智能领域,聚焦实际算法的优化和迭代,促进人工智能技术在各行各业的快速落地。图图 39:中科曙光:中科曙光推出容器化人工智能开发平台,加速推出容器化人工智能开发平台,加速 AI 应用落地应用落地 数据来源:中科曙光官网 4.2.4.拓维信息:拓维信息:自主可控的自主可控的昇腾腾智能计算生态核心参与者智能计算生态核心参与者 拓维信息是拓维信息是华为华为昇腾智能计算生态的核心参与者。腾智能计算生态的核心参与者。拓维信息于 2021 年 3月成为首批昇腾官方授权的 AI 计算硬件生产合作伙伴,目前公司可以提供“兆瀚”品牌的囊括智能小站、边缘计算服务器、推理服
102、务器、训练服务器、AI 集群等在内的全栈式昇腾智能计算硬件,最小的加速卡提供 8 TOPSINT8 算力,而最大的 AI 集群可以提供 256-1024 PFLOPSFP16算力,能够满足用户从边缘计算端到大型数据中心的多样化算力需求。根据公司年报,2022 年 9 月公司获得华为“优秀昇腾整机合作伙伴奖”,2022 年 11 月公司获得华为“2022 年度昇腾最佳实践伙伴奖”,是华为昇腾生态最重要的合作伙伴之一。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 29 of 53 图图 40:拓维信息可提供全栈式拓维信息可提供全栈式昇腾智能计算硬件腾智
103、能计算硬件 数据来源:拓维信息官网 拓维信息的智能计算产品符合政企客户自主可控需求,连续中标标杆项拓维信息的智能计算产品符合政企客户自主可控需求,连续中标标杆项目。目。公司“兆瀚”智能计算产品采用华为海思研发的自主可控的鲲鹏+昇腾异构计算芯片组,可满足政企客户对自主可控智能算力基础设施的建设需求,因而在市场中享有独特的竞争力,连续中标标杆项目。根据公司公告,2022 年 12 月公司中标全国一体化算力网络国家(贵州)主枢纽中心 IT 设备采购项目,合同金额 1.83 亿元;2022 年 6 月其连续中标长沙人工智能计算中心以及重庆人工智能计算中心的智能计算硬件订单,订单额分别为 1.04 亿元
104、及 2.96 亿元。此外公司在运营商服务器集采中也持续有收获,昇腾智能计算领域,公司在 2022 年 2 月以第一名的身份中标中国联通 2022 人工智能服务器集采,中标份额 44%,中标金额 0.63 亿元。连续中标国家级智能算力试验区大单,是公司产品实力的直接体现,且根据长沙及重庆市的算力发展规划,一期项目算力合计为 600 PFLOPS,未来几年将不断扩容至 2000 PFLOPS,贵州主枢纽计划到 2026 年算力建设至 274 PFLOPS,有望为公司带来持续的收入增长。表表 1111:拓维信息拓维信息 AIAI 计算产品连续中标大型政企客户标杆项目计算产品连续中标大型政企客户标杆项
105、目 中标项目中标项目 中标年月中标年月 一期中标金额一期中标金额 备注备注 全国一体化算力网络国家(贵州)主枢纽中心 2022.12 1.83 亿元 计划至 2026 年底之前扩容至 274P 长沙人工智能计算中心 2022.06 1.04 亿元 一期规划 200P,计划 2025 年扩容至 1000P 重庆人工智能计算中心 2022.06 2.96 亿元 一期规划 400P,计划未来扩容至 1000P 中国联通 2022 年 AI 服务器集采 2022.02 0.63 亿元 中标份额 44%,排名第一 数据来源:Wind,国泰君安证券研究 5.英伟达引领全球英伟达引领全球 AI芯片发展潮流芯
106、片发展潮流 5.1.A AI I 应用兴起将持续推动英伟达数据中心业务高增长应用兴起将持续推动英伟达数据中心业务高增长 英伟达是英伟达是 GPUGPU 的发明创造者。的发明创造者。1999 年,英伟达在纳斯达克挂牌上市并于 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 30 of 53 同年提出了 GPU 概念,发布了 GeForce 256这被业界视为现代计算机图形技术的开端。GPU 最早主要用于 PC 游戏和 Sega、Xbox 以及 PS3等主机游戏,能够从硬件上支持 T&L(Transform and Lighting,多边形转换与光源处理
107、),因为 T&L 是 3D 图像渲染中的一个重要部分,其作用是计算多边形的 3D 位置和处理动态光线效果,提供细致的 3D 物体和高级的光线特效。3D 图像渲染场景是一个并行计算任务。由于图像中各区域之间没有联系或依赖关系,因此,这个任务可以轻易地被拆解成若干个独立的任务,每个任务可以同时并行这样也可以加快速度。这种并行计算的能力让 GPU 意外的成为了 AI 计算的硬件基础设施:在 AI 计算中,最常见的任务是深度学习。深度学习模型通常需要进行大量的矩阵计算,这是 GPU 的强项。GPU 可以同时执行大量的矩阵运算,从而加速深度学习模型的训练和推理过程。由于芯片产业的赢家通吃效应,作为 GP
108、U 全球巨头的英伟达目前占据全球 GPU 主要市场,并在 AI 时代迎来了自己的发展新机遇。图图 41:GPU 成为成为 AI 时代基础设施时代基础设施 数据来源:英伟达 当下游戏和数据中心占了英伟达收入的主要部分,数据中心业务刚刚超当下游戏和数据中心占了英伟达收入的主要部分,数据中心业务刚刚超过传统游戏业务成为公司的顶梁柱。过传统游戏业务成为公司的顶梁柱。英伟达瞄准四个大的市场:游戏、数据中心、专业可视化和汽车。游戏业务是英伟达赖以起家的传统业务,高性能游戏显卡是英伟达的拿手好戏,曾经是收入占比最高的业务,但在 2022 年已经被数据中心业务超越。数据中心业务目前是公司最大营收来源,云服务提
109、供商正在使用图形处理单元(GPU)技术来处理数据用户创建的海量数据,包括最终存储在云服务器上的视频、照片和消息,因此对于 GPU 的需求非常强烈,尤其是 AI 应用带来的大量算力需求进一步推动了数据中心业务的发展。专业可视化产品在设计制造、数字内容创造、企业图像视觉领域发挥着重要作用,能够提升图像显示效果。智能汽车业务可能会成为英伟达未来的核心业务,其中包含了出售给主机厂和供应商的 GPU 和 SoC 芯片,以及对应的开发平台。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 31 of 53 图图 42:数据中心和游戏业务占英伟达收入结构大头数据中心
110、和游戏业务占英伟达收入结构大头 数据来源:Wind,国泰君安证券研究 5.2.英伟达英伟达 A AI I 芯片芯片架构不断演进架构不断演进 随着人工智能发展对于算力的要求越来越高,英伟达也在不断改进其芯随着人工智能发展对于算力的要求越来越高,英伟达也在不断改进其芯片架构。片架构。每隔一到两年,英伟达就会提出新的芯片架构,用以适应计算需求的升级。其中它在 2012 年发布的 Kepler 架构中提出了 GPUDirect技术,可以绕过 CPU/System Memory,完成与本机其他 GPU 或者其他机器 GPU 的直接数据交换;2016 年的 Pascal 架构中除了考虑深度学习,加入了 D
111、P unit 之外,还 NVLink 用以单机内多 GPU 内的点到点通信,带宽达到了 160GB/s;2017 年提出 Volta 架构,基本以 Deep Learning为核心,引入了 Tensor Core;2020 年 Ampere 架构将每个时钟可执行的 FP32 着色器操作数量增加了一倍,RT Cores 为光线/三角形相交测试提供了两倍的吞吐量,新 Tensor Core 可以以两倍于 Turing Tensor Core 的速率处理稀疏神经网络,而 Turing GPU 不支持稀疏性;2022 年,英伟达在 Hopper 架构中引入新一代流式多处理器的 FP8 Tensor C
112、ore,用来加速 AI 训练和推理,与上一代架构相比,新的 Transformer 引擎与 Hopper FP8 Tensor Core 相结合,在大型 NLP 模型上提供高达 9 倍的 AI 训练速度和 30 倍的 AI 推理速度。表表 1212:英伟达芯片架构不断演进英伟达芯片架构不断演进 架构代号架构代号 Fermi Kepler Maxwell Pascal Volta Turing Ampere Hopper 时间 2010 2012 2014 2016 2017 2018 2020 2022 核心参数 16 个 SM,每个 SM 包括 32 Cuda Cores,共计 512 Cu
113、da Core 15 个 SMX,每个 SMX 包括 192 个单精度+64 个双精度 Cuda Core 16 个 SM,每个 SM 包括 4个处理块,每个处理块包括32 个 Cuda Core+8LD/ST Unit+8SFU GP100 有 60个 SM,每个SM 包括 64 个Cuda Cores 和32 个 DP Core 80 个 SM,每个 SM 里面有32 个 FP64、64 个 INT32、64 个 FP32、8个 Tensor core 72 个 SM,SM全新设计,每个 SM 里面包括64个INT32、64 个FP32、8个Tensor core 108 个 SM,每个
114、SM 里面包括64个FP32、64 个 INT32、32 个 FP64、4个 Tensor core 132 个 SM,每个 SM 包 括128 个 FP32、64 个 INT32、64 个 FP64、4个 Tensor core 特点/优势 首 个 完 整GPU 计 算 架构,支持与共游戏性能大幅提升,首次支持 GPU Direct相比 Kepler的每 组SM193个单元减少到NVLink 一代,双向互联带宽160GB/s,NVLink 2.0,Tensor Core 1.0 满足深度Tensor Core 2.0,RT Core 1.0 Tensor Core 3.0,RT Core 2
115、.0,NVLink Tensor Core 4.0,NVLink 4.0,结构稀疏44903455营收(百万美元,2022)数据中心游戏专业可视化自动驾驶OEM和其他 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 32 of 53 享存储结合纯Cache 层次的GPU 架构,支持ECC的GPU 架构 技术 了 每 组128个,但是每个SM 单元有更多逻辑控制电路 P100 有 56 个SM HBM 学习和 AI 运算 3.0,结构稀疏性,MIG 1.0 性,MIG 2.0 制程 40/28nm 28nm 28nm 16nm 1
116、2nm 12nm 7nm 4nm 代表型号 Quadro 7000 K80、K40M M5000 M4000 P100 GTX 1080 P6000 V100 T4 A100 H100 数据来源:CSDN(shuaifeng.zhang),国泰君安证券研究 随着芯片架构的不断演进,芯片的计算性能也在快速提升。随着芯片架构的不断演进,芯片的计算性能也在快速提升。以近年来的三大典型架构 Volta、Ampere 和 Hopper 的代表芯片 V100,A100 和 H100为例,在内核数量、计算速度、工艺制程等方面都有大幅提升。相比 V100,A100 的单精度浮点计算能力,从 15.7TFLOP
117、S 提升至 19.5TFLOPS;而双精度浮点运算从 7.8TFLOPS 提升至 9.7TFLOPS。从价格上来说,GPU 芯片的价格也随着性能的提升而快速增加,根据快科技 2023 年 5 月的报道,V100 加速卡目前售价约 1 万美元,A800 售价约 1.2 万美元,A100售价约 1.5 万美元,H100 售价约 3.65 万美元。其中 A800 是英伟达为了满足美国政府对中国市场的合规要求,在 A100 的基础上推出的,将NVLink 高速互连总线的带宽从 600GB/s 降低到 400GB/s。图图 43:相比相比 A100 和和 V100,H H100100 芯片性能大幅提升芯
118、片性能大幅提升 数据来源:机器之心 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 33 of 53 A AI I 大模型的兴起催化了对于算力的需求。大模型的兴起催化了对于算力的需求。随着 OpenAI 在全球范围内推出 ChatGPT 应用,引发了业界对于大模型的追捧。众所周知,大模型的训练和推理都需要大量的算力支持,英伟达作为算力领域主要的“军火供应商”,充分享受到了这一波红利。大模型对于算力的消耗可以分为三个环节大模型对于算力的消耗可以分为三个环节。第一个环节是模型预训练环节,据 OpenAI 团队发表于 2020 年的论文 Language
119、Models are Few-Shot Learners,训练一次 1746 亿参数的 GPT-3 模型需要的算力约为 3640 PFlop-day。以 A100 FP16 运算 速度 156TFLOPS(floating point operations per second,1TFLOPS=1012 FLOPS,1PFLOPS=1024TFLOPS)计算,一张卡需要跑 2 万多天,一万张卡就只需要训练两天。第二个环节是模型迭代调优环节。第三个环节是日常运营推理环节。根据Semianalysis 分析师 Dylan Patel 对模型参数、日活跃用户数以及硬件利用率等因素分析,OpenAI
120、需要用到 3617 个 HGX A100 服务器(8 GPU配置)来维持运转。也就是说有志于进行大模型训练和日常运营的企业,需要配置的 A100 GPU 的数量大致需要在 1 万个左右。为了应对为了应对 chatchatGPTGPT 引发的大模型竞争,引发的大模型竞争,全球科技巨头全球科技巨头纷纷开始储备算力纷纷开始储备算力资源资源,英伟达直接受益于这波算力军备竞赛,英伟达直接受益于这波算力军备竞赛。据 Business Insider 报道,推特于 4 月份购买了约 1 万个 GPU,用于公司的两个数据中心之一;微软在 Azure 中的人工智能超级计算机与 OpenAI 合作构建,拥有 28
121、.5万个 CPU 和 1 万个 GPU;谷歌于 5 月宣布了一款拥有约 26000 个英伟达H100 的 AI 超级计算机;而国内发布大模型的公司越来越多,对于 AI 算力的需求同样在快速爆发。根据 5 月 29 号发布的中国人工智能大模型地图研究报告,中国 10 亿级参数规模以上大模型已发布 79 个。报告显示,北京、广东、浙江、上海等地的大模型数量最多,同时这 4 个地方也是近三年人工智能服务器采购数量最高的地区。针对旺盛的市场需求,英伟达也在不断推出性能更加强劲的产品组合。针对旺盛的市场需求,英伟达也在不断推出性能更加强劲的产品组合。5 月 29 日,英伟达 CEO 黄仁勋在 COMPU
122、TEX 2023 展前发布会上,正式发布了全新的 GH200 Grace Hopper 超级芯片,以及基于 NVIDIA NVLink Switch System 驱动的拥有 256 个 GH200 超级芯片的 NVIDIA DGX GH200超级计算机。GH200 超级芯片使用 NVIDIA NVLink-C2C 芯片互连,将基于 Arm 的 NVIDIA Grace CPU 与 NVIDIA H100 Tensor Core GPU 整合在了一起,以提供 CPUGPU 一致性内存模型,从而不再需要传统的 CPU至 GPU PCIe 连接。与最新的 PCIe Gen5 技术相比,这也将 GP
123、U 和 CPU之间的带宽提高了 7 倍,将互连功耗减少了 5 倍以上,并为 DGX GH200超级计算机提供了一个 600GB 的 Hopper 架构 GPU 构建模块。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 34 of 53 图图 44:英伟达发布英伟达发布GH200超级芯片超级芯片 数据来源:英伟达 5.3.英伟达英伟达非常重视软件生态的配套非常重视软件生态的配套 5.3.1.CUDA 生态构筑软件壁垒生态构筑软件壁垒 尽管以高性能计算芯片产品著称,但英伟达绝不仅仅是一个芯片设计公尽管以高性能计算芯片产品著称,但英伟达绝不仅仅是一个芯片设
124、计公司,其软件生态反而成为竞争对手难以企及的优势。司,其软件生态反而成为竞争对手难以企及的优势。英伟达所有硬件产品和解决方案都拥有统一的底层软件架构“CUDA”(2006 年 11 月 9 日首次发布)以及运行库“CUDA-X”。因此英伟达将复杂的显卡编程打包成了一个简单的接口,客户端广大的开发人员能够非常简单地利用这些接口和开发工具,高效完成各种应用的开发(普通开发者使用 C 语言就能控制 GPU 硬件进行并行计算)。当下英伟达的 CUDA 软件生态已经成为其核心壁垒之一,这也是英伟达多年软件研发投入取得的成果。图图 45:CUDA 是英伟达软件生态的核心是英伟达软件生态的核心 数据来源:英
125、伟达 CUDACUDA 是英伟达推 出的是英伟达推 出的软件软件平台。平台。CUDA(Compute Unified Device Architecture)包含了 CUDA 指令集架构(ISA)以及 GPU 内部的并行计算引擎,通过利用 GPU 的处理能力,可大幅提升计算性能。CUDA 是一个 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 35 of 53 完整的 GPU 解决方案,提供了硬件的直接访问接口,而不必像传统方式一样必须依赖图形 API 接口来实现 GPU 的访问,CUDA 的开发门槛大幅降低。CUDA-X 则是对 CUDA 核心能力
126、的抽象和扩展,向上对接不同的行业应用需求。目前在英伟达的软件栈体系中,分为CUDA-X AI和CUDA-X HPC,分别面向 AI 和 HPC 两大领域。表表 1313:C CUDAUDA 具备核心优势具备核心优势 优势优势 具体内容具体内容 易部署 支持 docker,K8S 提供 NGC 平台,用户开箱即用 层次灵活的开发接口 CUDA 软件也可以理解为和 OpenCL、OpenGL 类似的一种 API CUDA API 包括 Driver API,Runtime API 和 Libraries API 编程语言 Fortran,C/C+,Python 满足不同领域开发者的需求 品类齐全的
127、工具集 GDB、Nsight、Memcheck 等 第三方工具和软件库 和用户及厂商并肩,构筑软件生态域 数据来源:鹏博士研究院,国泰君安证券研究 C CUDAUDA 软件体系包括函数库、运行时软件体系包括函数库、运行时 A APIPI 和驱动和驱动 A APIPI。对于一些标准的数学函数计算,可以直接调用标准函数库进一步简化编程过程,例如 CUFFT是利用 CUDA 进行快速傅里叶变换的库函数;CUDA 运行时 API 和 CUDA 驱动 API 提供了实现设备管理、上下文管理、存储器管理、代码块管理、执行控制、纹理索引管理与 OpenGL 和 Direct3D 的互操作性的应用接口。图图
128、46:CUDA 软件体系包括三部分软件体系包括三部分 数据来源:英伟达 C CUDAUDA 的程序结构中引入了主机端(的程序结构中引入了主机端(hosthost)和设备()和设备(devicedevice)的概念。)的概念。CUDA程序中既包含 host 程序,又包含 device 程序。同时,host(CPU 及系统内存)与 device(GPU 及 GPU 本身的显存)之间可以进行通信,这样它们之间可以进行数据拷贝。主机端代码在 CPU 上执行,是普通的 C 语言代码,设备端代码在 GPU 上执行。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分
129、36 of 53 图图 47:CUDA 程序结构中引入了程序结构中引入了host 和和 device 数据来源:CSDN 5.3.2.推出推出 AI 模型,协助应用开发模型,协助应用开发 英伟达英伟达宣布推出全新定制宣布推出全新定制 AIAI 模型代工服务。模型代工服务。2023 年 5 月 29 日英伟达宣布推出全新定制 AI 模型代工服务 NVIDIA ACE 游戏开发版(NVIDIA Avatar Cloud Engine(ACE)for Games),利用 AI 驱动的自然语言交互技术,为游戏中的非玩家角色(NPC)带来智能,从而改变游戏体验。中间件、工具及游戏开发者可以使用“ACE
130、游戏开发版(ACE for Games)”在他们的游戏和应用中建立和部署定制的语音、对话及动画 AI 模型。开发者可以整合整套“NVIDIA ACE 游戏开发版(NVIDIA ACE for Games)”解决方案,或是单独使用自己需要的组件。在 NVIDIA Omniverse 的基础上,“ACE 游戏开发版(ACE for Games)”为语音、对话和角色动画提供优化的 AI 基础模型,包括:NVIDIA NeMo 大型语言模型(LLM):使用专有数据构建、自定义和部署语言模型。根据游戏故事的世界观及人物背景来定制调整 LLM,并且通过 NeMo Guardrails 来保护对话不会出现产
131、生相反效果或不安全的内容。NVIDIA Riva:用于自动语音识别(ASR)及文本转语音,以启用实时语音对话。NVIDIA Omniverse Audio2Face:用于配合语音音轨,实时为游戏角色创建脸部表情动画。Audio2Face 搭配用于虚幻引擎 5 的 Omniverse Connector,开 发 者 可以 直 接 将 脸部 动 画 添加 到 MetaHuman 的角色上。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 37 of 53 图图 48:NVIDIA ACE游戏开发版提供了一整套使令角色栩栩如生的生成式游戏开发版提供了一整套使
132、令角色栩栩如生的生成式 AI 工具工具 数据来源:英伟达 5.4.实现实现云与边缘的共振云与边缘的共振 5.4.1.英伟达推出英伟达推出 DGX Cloud 英伟达在英伟达在 20232023 年年 GTCGTC 大会上,宣布与多家云服务供应商合作,推出大会上,宣布与多家云服务供应商合作,推出NVIDNVIDI IA DGX CloudA DGX Cloud。这使得企业无需采购和拥有服务器,便可通过云服务商合作托管的 DGX Cloud 基础设施。通过浏览器取得超算电脑级 AI运算功能,微软 Azure 和 Google Cloud 将陆续开始供应服务。NVIDIA DGX Cloud 的收费
133、标准为每个实例每月 36999 美元起。每个实例包括八个 Nvidia H100 或 A100 80 GB GPU,每个 GPU 节点内存高达 640 GB,实现计算资源专用,不和云中另外的租户共享。在在 DGX Cloud DGX Cloud 之上,英伟达的之上,英伟达的 AI AI 平台还包括平台还包括 AI EnAI Enterprise terprise 和和 AI AI FoundationsFoundations。英伟达 AI Foundations 是一组云服务,可推进企业级生成 AI,并支持跨文本、视觉内容和生物学等领域的用例定制。AI Enterprise 是英伟达 AI 平
134、台的软件层,它提供端到端的 AI 框架和预训练模型,以简化生产 AI 的开发和部署。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 38 of 53 图图 49:通过通过 DGX CLOUD,企业可以轻松构建,企业可以轻松构建AI 能力能力 数据来源:英伟达 DGX CloudDGX Cloud AI AI FoundationsFoundations 主要包含主要包含 3 3 项项服务:服务:NeMoNeMo:文本生成模型构建服务。:文本生成模型构建服务。提供从 80 亿到 5300 亿个参数的模型,会定期更新额外的训练数据,帮助企业为客服、企业搜
135、索、聊天机器人、市场情报等生成式 AI 应用进行模型定制。PicassoPicasso:视觉语言模型构建服务。:视觉语言模型构建服务。具有先进的文生图、文本转视频、文本转 3D 功能,可为产品设计、数字孪生、角色创建等使用自然文本提示的应用快速创建和定制视觉内容。BioNeMoBioNeMo:生命科学服务。:生命科学服务。提供 AI 模型训练和推理,加速药物研发中最耗时和成本最高的阶段,可加速新蛋白质和治疗方法的创建以及基因组学、化学、生物学和分子动力学研究。图图 50:DGX CLOUD 可以提供生命科学可以提供生命科学AI 服务服务 数据来源:英伟达 通过通过 DGX CloudDGX C
136、loud,英伟达可以将,英伟达可以将 AIAI 的能力释放给更多的中小企业。的能力释放给更多的中小企业。前文已经提到,英伟达的 AI 芯片和 DGX 超级计算机都非常昂贵,中小企业很难大规模部署。而有了 DGX CLOUD 以后,广大中小企业也可以享受到AI 时代的红利。这也是云计算的核心优点之一,能够将昂贵的 IT 服务平民化,加速先进技术的普及。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 39 of 53 5.4.2.英伟达英伟达 Jetson 边缘计算平台覆盖更多场景边缘计算平台覆盖更多场景 英伟达英伟达 JetsonJetson 边缘计算
137、平台能够应用于机器人、智能驾驶、智能制造边缘计算平台能够应用于机器人、智能驾驶、智能制造等应用场景。等应用场景。Jetson 平台包括 Jetson 模组(外形小巧的高性能计算机)、用于加速软件的 JetPack SDK,以及包含传感器、SDK、服务和产品的生态系统,从而加快开发速度。Jetson 平台具有体积小,功耗低,软硬件均可裁剪,可定制化程度高,系统开源等优势。Jetson 系列模组尺寸小巧,但能提供强大 AI 算力,尺寸在 100mm 以内,AI 算力最高可达几百TOPS,其中 Xavier NX 为 70mm x 45mm,AI 算力为 21TOPS。英伟达在 COMPUTEX 2
138、023 上发布了全新 Jetson AGX Orin 工业级模块,在恶劣环境下可以提供更高级别的计算能力可在 15-75W 功率范围内提供高达 248 TOPS 的 AI 性能。图图 51:英伟达英伟达 2 2023023 年年推出基于推出基于 OrinOrin 的模组的模组 数据来源:英伟达 JetsonJetson 打造软件隔离层,降低了软件迁移成本。打造软件隔离层,降低了软件迁移成本。在为开发者提供软件工具和解决方案 SDK 的同时,英伟达打造了软件隔离层,最大程度降低了嵌入式平台上软件的迁徙成本。英伟达的软件工具和 SDK,在 Jetson 所有的硬件平台都是通用的,所以在 Jetso
139、n 硬件平台的迁徙只需要做再次编译,无需任何代码级的改动。图图 52:JetsonJetson 具有软件隔离层具有软件隔离层 数据来源:英伟达 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 40 of 53 5.5.A AMDMD 正在全力正在全力向英伟达向英伟达发起追赶发起追赶 GPUGPU 市场仍将保持高速增长,英伟达享受市场成长红利,市场仍将保持高速增长,英伟达享受市场成长红利,A AMDMD 是唯一竞是唯一竞争对手。争对手。2021 年全球 GPU 行业市场规模为 334.7 亿美元,预计 2030 年将达到 4773.7 亿美元,预计 2
140、021-2030 年年均复合增长率将达 34.4%。从独立 GPU 领域来看,英伟达拥有绝对的领导地位,市场份额占比约为81%,AMD 占比约为 19%。图图 53:英伟达和英伟达和 A AMDMD 在全球在全球 G GPUPU 市场形成寡头垄断格局市场形成寡头垄断格局 数据来源:JPR,国泰君安证券研究 在在 A AI I 带来的算力历史性机遇下,带来的算力历史性机遇下,A AMDMD 正在另辟蹊径向英伟达奋力追赶。正在另辟蹊径向英伟达奋力追赶。作为 GPU 领域,英伟达全球唯一一个有分量的竞争对手,AMD 正在尝试把 CPU 和 GPU 以及大量高速内存封装在同一个芯片上,称之为 APU。
141、它通过允许 CPU 和 GPU 共享一个统一的物理内存来实现统一内存,物理内存共享的优势在于,CPU 可以在 HBM 中存储数据,而 GPU 可以直接读取数据。HBM 的带宽比 CPU 和 GPU 之间的 Infinity(或 PCIe)链接要高得多,允许新设计提高性能。这也简化了插座级别的 HPC 和 AI 编程,因为两种处理器类型都可以直接访问同一个内存池。图图 54:A AMDMD 创造出了创造出了A APUPU 架构架构 数据来源:AMD 基于基于 A APUPU 架构的架构的 M MI300I300 预计于年底开始预计于年底开始应用于超级计算机应用于超级计算机。在 2023 年81%
142、19%GPU全球市占率英伟达AMD 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 41 of 53 国际超算大会(ISC)上的一台最新超算(性能达2 exaflop的El Capitan),即将在今年年末启动,届时它将取代当前的 Frontier 成为世界最快超算。该超算由 AMD 提供支持,将采用的芯片就是最新的 Instinct MI300。MI300 是一款数据中心 APU,共集成了 13 块小芯片,大多采用 3D 堆叠方式。MI300 共包括 24 个 Zen 4 CPU 核心,1 个 CDNA 3 图形引擎和 8个 HBM3 内存,总内存
143、为 128GB。由于晶体管数量达到了 1460 亿个,MI300是 AMD 投入生产最大的芯片。其中,九个计算管芯(compute die)由5nm 的 CPU 和 GPU 混合而成,3D 堆叠在四个 6nm 的基本管芯(base die)上。ITF World 2023 半导体大会期间,AMD 提出了一个“30 x25”目标,即到2025年将芯片能效提高30倍,该计划的关键就是Instinct MI300。图图 55:MI300MI300 将成为将成为 A AMDMD 的里程碑式产品的里程碑式产品 数据来源:AMD 英伟达英伟达的软件护城河是的软件护城河是 A AMDMD 短期内难以超越的。
144、短期内难以超越的。前文在英伟达 CUDA 和Jetson 平台的介绍中,我们反复提到了,英伟达非常重视软件生态的建设,不管是底层的编程语言还是应用套件,英伟达都会贴心的准备好,让应用开发者能够随时上手,大幅提升了客户体验。同时,在各个垂直应用领域,英伟达都有自己的软件生态合作伙伴,为它提供基础的软件解决方案,这是长时间积累形成的竞争优势。我们认为,芯片的设计和研发并没有绝对的技术壁垒,台积电等代工厂更是对客户一视同仁,唯有软件生态的粘性是无法短期超越的,当客户已经习惯了一种开发环境和程序开发的流程,他就很难转向另外一个供应商。6.政策、需求双轮驱动,国内政策、需求双轮驱动,国内 AI芯片企业蓬
145、勃发展芯片企业蓬勃发展 6.1.AIGAIGC C 拉动拉动 AIAI 算力需求算力需求,AIAI 芯片将成为未来科技石油芯片将成为未来科技石油 随着 AI 进入“大模型”时代,训练数据不断增长、算法复杂度不断提高,国内人工智能厂商对算力的需求陡升。AI 芯片作为大模型及 AI 应用落地的算力基础,重要性日益凸显。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 42 of 53 图图 56:AI 芯片产业链较为复杂芯片产业链较为复杂 数据来源:国泰君安证券研究 广义的广义的 AI 芯片指专门用于处理人工智能应用中大量计算任务的模块,芯片指专门用于处理
146、人工智能应用中大量计算任务的模块,即面向人工智能领域的芯片均被称为即面向人工智能领域的芯片均被称为 AI 芯片。狭义的芯片。狭义的 AI 芯片即针对人芯片即针对人工智能算法做了特殊加速设计的芯片。工智能算法做了特殊加速设计的芯片。狭义的 AI 芯片与传统芯片(如CPU)相比,性能优势主要体现在专用性的侧重上。AI 芯片主要芯片主要分为三种类型:分为三种类型:通用型通用型(GPU)、半定制型、半定制型(FPGA)、定制、定制型型(ASIC)。三类芯片代表分别有英伟达(NVIDIA)的 GPU、赛灵思的 FPGA 和 Google 的 TPU。GPU 的计算能力最强,但是成本高、功耗高;FPGA
147、可编程,最灵活,但是计算能力不强;ASIC 体积小、功耗低,适合量产,但是研发时间长,且不可编辑,前期投入成本高,带来一定的技术风险。图图 57:AI 芯片分为芯片分为 GPU、FPGA、ASIC 三种类型三种类型 数据来源:国泰君安证券研究 针对不同技术路径,国内厂商均已有所布局针对不同技术路径,国内厂商均已有所布局。GPU:国内:国内 GPU 厂商已有部分产品落地,厂商已有部分产品落地,国产国产 GPU 迎来黄金发展迎来黄金发展期期。相比英伟达和 AMD,国内 GPsU 厂商的营收规模较小。但是国产 GPU 正受益于信创的机遇,在数据中心、智能汽车、游戏等应用领域的国产 GPU 需求量也极
148、大提升,国产 GPU 正在迎来黄金发展期。目前景嘉微已成功研发 JM7200 和 JM9 系列 GPU 芯片,应用于台式机、笔记本、服务器、自助终端等设备。海光信息的DCU也属于GPGPU的一种,其DCU协处理器全面兼容“类 CUDA”环境,主要部署在服务器集群或数据中心。IP授权授权设计设计晶圆代工晶圆代工AI芯片芯片云端云端/边缘端边缘端终端终端训练训练推理推理智能汽车智能汽车智能手机智能手机AIoT机器人机器人GPUFPGAASIC定制化程度定制化程度通用型半定制化定制化灵活性灵活性好好不好成本成本高较高低编程语言编程语言/架构架构CUDA,OpenCL等Verilog/VHDL等硬件描
149、述语言,OpenCL、HLS/功耗功耗大较大小主要优点主要优点峰值计算能力强,产品成熟平均性能较高,功耗较低,灵活性强平均性能很强,功耗很低,体积小主要缺点主要缺点效率不高,不可编辑,功耗高量产单价高,峰值计算能力较低,编程语言难度大前期投入成本高,不可编辑,研发时间长,技术风险大主要应用场景主要应用场景云端训练,云端推理云端推理,终端推理云端训练,云端推理,终端推理 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 43 of 53 图图 58:国内国内 GPU 企业迎来较快发展企业迎来较快发展 数据来源:国泰君安证券研究 CPU+FPGA:国内国内
150、巨头巨头纷纷布局纷纷布局 CPU+FPGA 的混合异构的混合异构加速加速 AI计算计算。FPGA 芯片用于加速 AI 计算时可以实现灵活部署,具备可编程性、高并行性、低延迟、低功耗等特点,在 AI 推断领域潜力巨大。全球科技巨头纷纷布局云端 FPGA 生态,国内包括腾讯云、阿里云均在 2017 年推出了基于 FPGA 的服务,百度大脑也使用了FPGA 芯片。此前被全球最大 FPGA 厂商赛灵思收购的深鉴科技也是基于 FPGA 来设计深度学习的加速器架构。ASIC:国内国内 ASIC 厂商实力雄厚,厂商实力雄厚,积极追赶积极追赶国外芯片巨头。国外芯片巨头。ASIC作为专用集成电路,广泛应用于人工
151、智能设备等领域,根据终端功能可细分为 TPU 芯片、DPU 芯片和 NPU 芯片等。最具代表性的就是谷歌 2015 年推出的首款 TPU,大幅提升 AI 推理的性能。经过近年来国内 ASIC 厂商的快速发展,在工艺、算力、整体性能等方面,均达到国际领先水平。海思的昇腾 910 在 BF16 浮点算力方面超越谷歌最新一代产品 TPUv4,遂原科技的云燧 T20 和寒武纪的 NPU在整体性能上也与谷歌比肩。未来国内头部 ASIC 厂商有望继续保持技术优势,突破国外厂商在 AI 芯片的垄断格局。图图 59:国内国内 ASIC 厂商实力雄厚,积极追赶国外芯片巨头厂商实力雄厚,积极追赶国外芯片巨头 数据
152、来源:国泰君安证券研究 实现专用算法“硬件优化”,实现专用算法“硬件优化”,ASIC 路线路线在在 AI 领域的长期成长性领域的长期成长性值得期值得期待待。ASIC 虽然无法重新编程,且前期投入成本较高,但是在大规模量产的情况下,ASIC 具备性能更强、体积更小、功耗更低、成本更低、可靠性更髙等优点。随着人工智能技术发展成熟、算法逐渐收敛,ASIC将更具备一定竞争优势。公司名称产品图公司产品及介绍景嘉微(300474.SZ)景嘉微作为国产GPU龙头,已成功自主研发了一系列GPU芯片,包括JM54系列、JM72系列、JM92系列三代GPU产品。公司于 2014 年成功研发出国内首颗国产高性能、低
153、功耗 GPU 芯片 JM5400,打破了国外产品长期垄断我国 GPU 市场的局面,并不断研发更为先进的JM7200 和 JM9 系列。2022 年 5 月,公司 JM9 系列第二款图形处理芯片成功研发,可以满足地理信息系统、媒体处理、CAD 辅助设计、游戏、虚拟化等高性能显示需求和人工智能计算需求,可广泛应用于用于台式机、笔记本、一体机、服务器、工控机、自助终端等设备。海光信息(688041.SH)海光 DCU 系列产品以基于通用的GPGPU架构,采用7nm工艺,兼容“类CUDA”环境以及国际主流商业计算软件和人工智能软件,软硬件生态丰富。目前海光DCU系列产品深算一号已经实现商业化应用,于2
154、021年实现规模化出货,未来将广泛应用于大数据处理、人工智能、商业计算等领域,其产品性能达到了国际上同类型主流高端处理器的水平,具有较强的并行计算能力和较高的能效比,在国内处于领先地位。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 44 of 53 图图 60:FPGA 方案及方案及 ASIC 方案成本曲线存在差异方案成本曲线存在差异 数据来源:头豹研究院 6.2.国内国内 AIAI 芯片企业蓬勃发展芯片企业蓬勃发展 在在政策和需求政策和需求的的双重双重促进下促进下,中国中国 AI 芯片厂商奋起直追芯片厂商奋起直追,尤其在,尤其在 ASIC方向发展
155、机遇较大方向发展机遇较大。整体上看,国外芯片巨头目前仍处于领先地位,占据了大部分市场份额,并且在 GPU 和 FPGA 方面近乎垄断。但国内 AI芯片厂商在政策和需求的双重拉动下奋起直追,华为海思、地平线、寒武纪、海光信息、昆仑芯等厂商在多个领域取得突破进展。尤其在 ASIC 路线下,国内厂商有机会实现快速抢占市场。图图 61:国内国内 AI 芯片厂商正在快速发展芯片厂商正在快速发展 数据来源:国泰君安证券研究 6.2.1.国内国内 AI 芯片企业百花齐放芯片企业百花齐放 寒武纪寒武纪:AI 芯片独角兽,中国芯片独角兽,中国 ASIC 路线先行者。路线先行者。寒武纪成立于 2016年,是全球
156、AI 芯片领域第一个独角兽初创公司,研发团队成员主要来自于中科院,董事长陈天石曾任中科院计算所研究员。图图 62:寒武纪推出:寒武纪推出训推一体训推一体 AI 加速卡加速卡 MLU370-X8,搭载双芯,搭载双芯思元思元 370 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 45 of 53 数据来源:寒武纪官网 作为作为 AI 芯片领域芯片领域的的独角兽,寒武纪曾与华为携手打造全球首款手机独角兽,寒武纪曾与华为携手打造全球首款手机 AI芯片,近年来芯片,近年来通过通过专注打造云端产品专注打造云端产品线构建技术壁垒线构建技术壁垒。云端:AI 芯片寒
157、武纪近年来不断推出面向云端的 AI 芯片,思元 290是寒武纪首款面向云端训练的智能芯片,思元 370 面向云端且实现训推一体,这两款芯片均采用 7nm 制程工艺。此外,思元 370 是寒武纪首款采用 Chiplet 技术的 AI 芯片,寒武纪第二代云端推理产品思元 270 算力的 2 倍。终端:2016 年,寒武纪发布了全球首款终端 AI 处理器、首款商用NPU“寒武纪 1A”,面向智能手机、安防监控、可穿戴设备、无人机和智能驾驶等各类终端设备,主流智能算法能耗比全面超越传统CPU、GPU。寒武纪 1A 被应用于全球首款智能手机 AI 芯片麒麟 970。图图 63:寒武纪已经推出了多款云端、
158、边缘端芯片及加速卡寒武纪已经推出了多款云端、边缘端芯片及加速卡 数据来源:寒武纪年报 华为海思华为海思:昇腾腾代表业界最强代表业界最强 AI 算力算力。思半导体成立于 2004 年 10 月,是华为的全资子公司。得益于母公司的强势全力支持和持续的高研发投入,海思已成为全球领先的 Fabless 半导体公司,产品覆盖智慧视觉、AIoT、智慧媒体、智慧交通及汽车电子、显示、手机终端、数据中心及 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 46 of 53 光收发器等多个领域。图图 64:海思半导体布局三大智慧场景海思半导体布局三大智慧场景 数据来源:
159、海思半导体官网 昇腾系列腾系列面向“端、边、云”面向“端、边、云”全栈全场景全栈全场景 AI 芯片,代表着芯片,代表着业界业界最最强强 AI 算力,采用华为自研的达芬奇架构,对标国际巨头谷歌英伟达。算力,采用华为自研的达芬奇架构,对标国际巨头谷歌英伟达。2018 年,华为提出了全栈全场景 AI 解决方案并发布了两款 AI 芯片,昇腾 910 和昇腾 310,其计算核心采用华为自研的面向 AI 计算特征的“达芬奇架构”。昇腾 910 是单芯片计算密度最大的芯片,对标英伟达 V100和谷歌 TPUv3,比 V100 的标称算力 125TOPS 高出约一倍,而昇腾 310芯片的最大功耗仅 8W,是极
160、致高效计算低功耗 AI 芯片。基于昇腾系列AI 处理器,华为推出 Atlas 全系列、全息感知产品,覆盖端侧、边缘侧和数据中心侧。图图 65:华为海思实力雄厚,已推出华为海思实力雄厚,已推出昇腾腾 310 和和昇腾腾 910 等产品 数据来源:海思半导体官网 地平线地平线:国内车载芯片领头羊。:国内车载芯片领头羊。地平线成立于 2015 年,是一家注重软硬件结合的 AI 创业公司,致力于开发边缘 AI 芯片及相关解决方案,由Intel、嘉实资本、高瓴资本领投。提出嵌入式提出嵌入式 AI 芯片架构芯片架构 BPU,坚持“芯片,坚持“芯片+算法算法+工具链”完整解决方工具链”完整解决方案。案。20
161、17 年 12 月,地平线自主设计研发了中国首款嵌入式人工智能视觉芯片旭日系列和征程系列,基于自研 BPU 架构,通过软硬结合打造极致性能。目前,地平线是业界唯一能够提供覆盖从 L2 到 L4 全场景整车智能芯片方案的人工智能平台型企业。图图 66:地平线采用自研地平线采用自研 BPU 架构架构 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 47 of 53 数据来源:地平线官网 旭日系列是面向智能摄像头的处理器,具备在前端实现大规模人脸检测跟踪、视频结构化的处理能力,可广泛用于智能城市、智能商业等场景。征程系列是面向自动驾驶的处理器,可同时对行人
162、、机动车、非机动车、车道线交通标识等多类目标进行精准的实时监测和识别,实现 FCW/LDW/JACC 等高级别辅助驾驶功能。图图 67:地平线已推出征程、旭日等多个产品系列地平线已推出征程、旭日等多个产品系列 数据来源:地平线官网,国泰君安证券研究 海光信息海光信息:国产:国产 CPU+DCU 龙头,性能达国际化可比水平龙头,性能达国际化可比水平。光信息成立于 2014 年,公司骨干研发人员多拥有国内外知名芯片公司的就职背景,拥有成功研发 x86 处理器或 ARM 处理器的经验。CPU+DCU 双轮驱动,双轮驱动,实现实现领先领先的处理器的处理器性能。性能。海光信息的产品包括海光通用处理器(C
163、PU)和海光协处理器(DCU)。海光 DCU 系列产品以基于通用的 GPGPU 架构,采用 7nm 工艺,兼容“类 CUDA”环境以及国际主流商业计算软件和人工智能软件,软硬件生态丰富。目前海光DCU 系列产品深算一号已经实现商业化应用,于 2021 年实现规模化出货,未来将广泛应用于大数据处理、人工智能、商业计算等领域,其产品性能达到了国际上同类型主流高端处理器的水平,具有较强的并行计算能力和较高的能效比,在国内处于领先地位。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 48 of 53 图图 68:海光信息已推出高端处理器产品海光信息已推出高端
164、处理器产品 数据来源:海光信息年报 6.2.2.AI 芯片乃兵家必争之地,芯片乃兵家必争之地,BAT均已有所布局均已有所布局 对于互联网大厂来说,腾讯、百度、阿里巴巴等均在 AI 芯片领域大力布局。其中,腾讯投资燧原科技、百度投资昆仑芯、阿里巴巴则孵化了平头哥。除此之外,原 AMD 全球 GPGPU 设计总负责人陈维良成立了沐曦集成电路,两位 CTO 均为前 AMD 首席科学家;原 AMD 首席工程师郑金山成立了天数智芯,首席技术官曾任三星全球副总裁;原商汤科技总裁张文成立了壁仞科技,CTO 曾任职于海思的 GPU 自研团队。燧原科技燧原科技(腾讯系):(腾讯系):燧原科技成立于 2018 年
165、,公司创始人赵立东曾任紫光通信科技集团有限公司副总裁、AMD 计算事业部高级总监;COO张亚林曾任 AMD 资深芯片经理、技术总监。邃思邃思 2.0 是迄今中国最大的是迄今中国最大的 AI 计算芯片。计算芯片。公司成立以来,已相继推出云端 AI 训练芯片邃思 1.0/2.0、云端 AI 训练加速卡云燧 T1x/T2x 和 AI 推理加速卡云燧 i1x/i2x,以及配套的“驭算”软件编程平台 TopsRider 和“鉴算”推理加速引擎 TopsInference。公司 2021 年在世界人工智能大会期间发布的邃思 2.0 是迄今中国最大的 AI 计算芯片。图图 69:燧原科技燧原科技推出推出云燧
166、云燧 T2x 系列云端系列云端 AI 加速卡加速卡 数据来源:燧原科技官网 自研自研软硬件协同架构设计软硬件协同架构设计,灵活通用灵活通用高效开发。高效开发。燧原芯片架构采用“GCU-CARA”(通用计算单元和全域计算架构),是分别基于硬件的通用计算单元 GCU 和基于软件的驭算 TopsRider 两个主要品牌,具备完全可编程、全模式计算、全精度计算、高并行度等特点。其软件编程平台驭算 TopsRider 和推理加速引擎鉴算 Topsinference 可支持 TensorFlow、PyTorch、ONNX 等主流模型框架。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读
167、正文之后的免责条款部分 49 of 53 图图 70:燧原科技燧原科技自研自研软硬件协同架构设计软硬件协同架构设计 数据来源:燧原科技官网 昆仑芯昆仑芯(百度系):(百度系):昆仑芯成立于 2011 年,前身为百度智能芯片及架构部,于 2021 年 4 月完成独立融资。公司团队成员多数成员来自百度、高通、Marvell、Tesla 等行业头部公司,22 年完成 A 轮融资。图图 71:昆仑芯已发布昆仑芯已发布 1 代和代和 2 代芯片代芯片 数据来源:昆仑芯官网 百度百度基于自研基于自研 XPU 架构,致力打造通用架构,致力打造通用 AI 芯片,芯片,赋能互联网、工业制赋能互联网、工业制造、智
168、慧金融、智慧交通等造、智慧金融、智慧交通等多个多个领域。领域。百度从 2011 年开始就基于 FPGA实现 AI 加速公司于 2018 年正式开始 AI 芯片研发并在 2020 年实现昆仑芯 1 代芯片大规模部署,2021 年 8 月昆仑芯 2 代产品实现量产。昆仑芯采用自研的面向通用 AI 的 XPU 架构,其第二代昆仑芯产品采用 7nm 制程,相比 1 代产品性能提升 2-3 倍,FP16 算力达到 128TFLOPS,主要为数据中心高性能计算 提供算力支持。同时,昆仑芯 深度适配PaddlePaddle(飞桨),也支持 PyTorch、TensorFlow、ONNX 等主流的深度学习框架
169、。图图 72:昆仑芯深度适配多个主流深度学习框架昆仑芯深度适配多个主流深度学习框架 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 50 of 53 数据来源:昆仑芯官网 平头哥(阿里系):平头哥(阿里系):平头哥成立于 2018 年,由阿里全资收购的中天微与达摩院芯片研发团队合并而来,公司技术团队由原中天微、高通、AMD、华为海思等拥有丰富研发经验的人员构成。作为拥有国内公有云市场最大份额的企业,阿里自研作为拥有国内公有云市场最大份额的企业,阿里自研 AI 芯片投入最多、芯片投入最多、决心极大决心极大,致力于,致力于云端一体化芯片云端一体化芯片和和
170、 AIoT芯片产品芯片产品。公司有两条研发主线,分别聚焦于云计算和嵌入式两类芯片:利用 ARM的IP为阿里云数据中心研发芯片,在云端提供普惠算力,即倚天系列和含光系列;基于RISC-V处理器架构进行研发,如玄铁系列,主要应用是在 AIoT领域。图图 73:平头哥推出平头哥推出云端云端 AI 推理芯片推理芯片含光含光 800 数据来源:平头哥官网 含光含光 800 专用于云端视觉处理。专用于云端视觉处理。2019 年平头哥在云栖大会上发布 AI 推理芯片含光 800,为 TSMC12nm 工艺制程,采用平头哥自研架构和达摩院算法,算力相当于 10 个 GPU,性能峰值算力达 820 TOPS。含
171、光 800 AI芯片专用于云端视觉处理,可在视觉图像识别/分类/搜索、医疗影像、城市监控等领域发挥作用。为了实现软硬件协同,平头哥提供了 HGAI软件开发包,可支持主流开源框架 TensorFlow、Caffe、MXNet 和 ONNX,广泛适用于语音、图片、视频等 AI 推理业务。图图 74:为了实现软硬件协同,平头哥提供为了实现软硬件协同,平头哥提供 HGAI 软件开发包软件开发包 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 51 of 53 数据来源:平头哥官网 虽然虽然 BAT均已布局均已布局 AI 芯片,但具体路径也各有特色。芯片,但具
172、体路径也各有特色。百度选择了拆分芯片业务,阿里的云端高性能芯片自用,RISC-V 芯片开源开放,腾讯主要以投资的方式,用尽可能少的投入撬动自研芯片。除 AI 芯片本身的硬件之外,与之配套的软件开发体系亦是生态的重要组成部分,包括底层硬件、指令集架构、编译器、API、基础库、顶层算法框架和模型等。由于全球主流深度学习框架均使用 CUDA 平台,因此国内 AI 芯片厂商在生态构建的初期均需兼容 CUDA,但是长期国产 AI 芯片厂商仍需构筑自身软硬件生态。7.投资建议投资建议 由于海量数据处理需求激增、AI 模型算法渐趋复杂以及算力投资具备的强经济效益,AI 算力产业的长期发展前景广阔,迎来投资机
173、遇。AI 服务器是 AI 算力产业价值量的最大体现,中国 AI 服务器整机厂商增速领跑全球,AI 服务器整机环节受益标的包括浪潮信息、紫光股份、中科曙光、拓维信息等;AI 芯片是 AI 算力产业的核心竞争力,中国厂商正在奋力直追海外龙头公司,AI 芯片受益标的包括寒武纪、海光信息、景嘉微等。8.风险提示风险提示 1)下游需求不及预期的风险下游需求不及预期的风险 AI 计算产业下游需求目前仍以政企客户为主,若未来政企客户购买力受到冲击,可能出现下游需求不及预期的风险。2)核心元器件受制裁的风险核心元器件受制裁的风险 AI 计算核心元器件数据科技前沿领域,对半导体先进制程有一定以来,若未来海外制裁
174、加剧,可能带来核心元器件断供风险。3)市场竞争加剧的风险市场竞争加剧的风险 AI 计算行业尚处于发展早期阶段,未来市场竞争有可能加剧。行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 52 of 53 行业专题研究行业专题研究 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 53 of 53 本公司具有中国证监会核准的证券投资咨询业务资格 分析师声明分析师声明 作者具有中国证券业协会授予的证券投资咨询执业资格或相当的专业胜任能力,保证报告所采用的数据均来自合规渠道,分析逻辑基于作者的职业理解,本报告清晰准确地反映了作者的研究观点,力求
175、独立、客观和公正,结论不受任何第三方的授意或影响,特此声明。免责声明免责声明 本报告仅供国泰君安证券股份有限公司(以下简称“本公司”)的客户使用。本公司不会因接收人收到本报告而视其为本公司的当然客户。本报告仅在相关法律许可的情况下发放,并仅为提供信息而发放,概不构成任何广告。本报告的信息来源于已公开的资料,本公司对该等信息的准确性、完整性或可靠性不作任何保证。本报告所载的资料、意见及推测仅反映本公司于发布本报告当日的判断,本报告所指的证券或投资标的的价格、价值及投资收入可升可跌。过往表现不应作为日后的表现依据。在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。本公司不保证本报告
176、所含信息保持在最新状态。同时,本公司对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。本报告中所指的投资及服务可能不适合个别客户,不构成客户私人咨询建议。在任何情况下,本报告中的信息或所表述的意见均不构成对任何人的投资建议。在任何情况下,本公司、本公司员工或者关联机构不承诺投资者一定获利,不与投资者分享投资收益,也不对任何人因使用本报告中的任何内容所引致的任何损失负任何责任。投资者务必注意,其据此做出的任何投资决策与本公司、本公司员工或者关联机构无关。本公司利用信息隔离墙控制内部一个或多个领域、部门或关联机构之间的信息流动。因此,投资者应注意,在法律许可的情况
177、下,本公司及其所属关联机构可能会持有报告中提到的公司所发行的证券或期权并进行证券或期权交易,也可能为这些公司提供或者争取提供投资银行、财务顾问或者金融产品等相关服务。在法律许可的情况下,本公司的员工可能担任本报告所提到的公司的董事。市场有风险,投资需谨慎。投资者不应将本报告作为作出投资决策的唯一参考因素,亦不应认为本报告可以取代自己的判断。在决定投资前,如有需要,投资者务必向专业人士咨询并谨慎决策。本报告版权仅为本公司所有,未经书面许可,任何机构和个人不得以任何形式翻版、复制、发表或引用。如征得本公司同意进行引用、刊发的,需在允许的范围内使用,并注明出处为“国泰君安证券研究”,且不得对本报告进
178、行任何有悖原意的引用、删节和修改。若本公司以外的其他机构(以下简称“该机构”)发送本报告,则由该机构独自为此发送行为负责。通过此途径获得本报告的投资者应自行联系该机构以要求获悉更详细信息或进而交易本报告中提及的证券。本报告不构成本公司向该机构之客户提供的投资建议,本公司、本公司员工或者关联机构亦不为该机构之客户因使用本报告或报告所载内容引起的任何损失承担任何责任。评级说明评级说明 评级评级 说明说明 1.1.投资建议的比较标准投资建议的比较标准 投资评级分为股票评级和行业评级。以报告发布后的 12 个月内的市场表现为比较标准,报告发布日后的 12 个月内的公司股价(或行业指数)的涨跌幅相对同期
179、的沪深 300 指数涨跌幅为基准。股票投资评级股票投资评级 增持 相对沪深 300 指数涨幅 15%以上 谨慎增持 相对沪深 300 指数涨幅介于 5%15%之间 中性 相对沪深 300 指数涨幅介于-5%5%减持 相对沪深 300 指数下跌 5%以上 2.2.投资建议的评级标准投资建议的评级标准 报告发布日后的 12 个月内的公司股价(或行业指数)的涨跌幅相对同期的沪深300 指数的涨跌幅。行业投资评级行业投资评级 增持 明显强于沪深 300 指数 中性 基本与沪深 300 指数持平 减持 明显弱于沪深 300 指数 国泰君安证券研究国泰君安证券研究所所 上海上海 深圳深圳 北京北京 地址 上海市静安区新闸路 669 号博华广场20 层 深圳市福田区益田路 6003 号荣超商务中心 B 栋 27 层 北京市西城区金融大街甲 9 号 金融街中心南楼 18 层 邮编 200041 518026 100032 电话(021)38676666(0755)23976888(010)83939888 E-mail: