《科技行业专题研究:AI2.0十年之后我们还能做什么-230626(262页).pdf》由会员分享,可在线阅读,更多相关《科技行业专题研究:AI2.0十年之后我们还能做什么-230626(262页).pdf(262页珍藏版)》请在三个皮匠报告上搜索。
1、 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。1 证券研究报告 科技 科技 AI 2.0:十年之后我们还能做什么:十年之后我们还能做什么 华泰研究 华泰研究 科技 科技 增持 增持(维持(维持)研究员 黄乐平,黄乐平,PhD SAC No.S0570521050001 SFC No.AUZ066 +(852)3658 6000 研究员 谢春生谢春生 SAC No.S0570519080006 SFC No.BQZ938 +(86)21 2987 2036 研究员 朱珺朱珺 SAC No.S0570520040004 SFC No.BPX711 +(86)10 6321 1166
2、 研究员 余熠余熠 SAC No.S0570520090002 SFC No.BNC535 +(86)755 8249 2388 研究员 陈旭东陈旭东 SAC No.S0570521070004 SFC No.BPH392 +(86)21 2897 2228 研究员 丁宁丁宁 SAC No.S0570522120003 +(86)21 2897 2228 研究员 张皓怡张皓怡 SAC No.S0570522020001 +(86)21 2897 2228 联系人 王兴王兴 SAC No.S0570121070161 +(86)21 3847 6737 联系人 张宇张宇 SAC No.S0570
3、121090024 SFC No.BSF274 +(86)10 6321 1166 联系人 王心怡王心怡 SAC No.S0570121070166 SFC No.BTB527 +(86)21 2897 2228 联系人 权鹤阳权鹤阳 SAC No.S0570122070045 +(86)21 2897 2228 联系人 于可熠于可熠 SAC No.S0570122120079 +(86)21 2897 2228 2023 年 6 月 26 日中国内地 专题研究专题研究 AI 大模型展现惊人能力,有望成为下一代通用技术平台大模型展现惊人能力,有望成为下一代通用技术平台 2010 年,麻省理工大
4、学阿齐默鲁教授等提出了科技发展如何影响人类就业的分析框架。当前,随着以 GPT-4 为代表的大语言模型的出现,AI 开始具备文本生成、语言理解、知识问答、逻辑推理等能力,AI 大模型出现通用性强、固定成本高但边际成本递减等平台性技术的显著特征,未来有可能大规模替代当前人类的工作。因此,我们认为现在是重新思考人工智能将如何影响工作和投资的又一重要时刻。我们认为:1)大模型对人类工作的替代将从常规性的脑力劳动开始,金融法律服务、软件外包、传媒等工作可能最先被影响。2)从投资角度,建议按照算力基础设施-硬件载体-大模型平台-应用的顺序寻找受益标的。投资机会投资机会#1:科技巨头在大模型上竞争激化,芯
5、片等送水人最先受益:科技巨头在大模型上竞争激化,芯片等送水人最先受益 我们认为,算力需求增长会率先利好芯片、光模块、服务器产业链等送水人。根据 OpenAI 测算,目前算力的增速(翻 1 倍/3-4 个月)远超过摩尔定律(翻 1 倍/18-24 个月),未来 AI 应用的逐步丰富,将推动推理芯片等相关市场保持强劲增长。我们预计 2025 年左右当生成式 AI 应用大规模落地后,用于数据中心的推理及训练芯片市场约 900 亿美元,带来先进代工、先进封装、光模块、服务器在内相关产业链机会。投资机会投资机会#2:谁会成为谁会成为 2.0 时代的硬件载体?时代的硬件载体?回顾消费电子硬件的发展历程,硬
6、件的升级和应用的发展往往相互促进。年初以来,ChatGPT Plugins 和 Auto GPT 已让我们在应用层面看到了大语言模型的潜力,有望催化智能终端的发展。一方面,大模型将为智能手机、PC 平板、音箱等带来新功能,推动硬件规格升级;另一方面也有望催化 AR/VR、无人驾驶汽车、机器人等新的硬件形态,带动产业链发展。长期来看,或将形成同时拥有 1)超强感知能力,2)通用人工智能(AGI)和 3)灵活的行动能力的硬件产品。虽然离大规模应用仍有距离,但长期来看,建议关注机器人等终端成为 AI2.0 时代的主流载体。投资机会投资机会#3:世界最后需要几家大模型公司?:世界最后需要几家大模型公司
7、?我们认为,大语言模型是一个资本密集、人才密集和数据密集的产业,是否拥有大语言模型将成为衡量科技企业甚至衡量国家综合实力的重要尺度之一。当前全球大模型呈现“百模大战”的竞争格局,我们认为最终可能会收敛到国内外各数家的寡头竞争格局。在“百模大战”中最终胜出的企业,有望成为可以类比当前百度、阿里、腾讯体量的科技平台型企业。是否能形成“数据-模型-应用”的飞轮是判断大模型企业能否在竞争中胜出的重要标准之一。投资机会投资机会#4:最大机会在行业,看好互联网、办公、金融等行业落地:最大机会在行业,看好互联网、办公、金融等行业落地 我们认为,AI 2.0 最大的投资机会在应用,AI 落地的节奏或和行业数字
8、化程度成正比,看好互联网(搜索+广告营销)、办公、金融,教育等行业率先迎来“iPhone 时刻”,关注大模型在:1)电商、金融、医疗等行业替代传统客服;2)文本和图像生成在办公、广告营销、金融、影视游戏等领域成为下一代生产力工具;3)多模态能力在新药开发等科研上的应用前景。风险提示:宏观经济波动;新技术渗透进度不及预期;中美贸易摩擦加剧;本研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。2 科技 科技 正文目录正文目录 AI 2.0:十年之后我们还能做什么十年之后我们
9、还能做什么.4 AI 2.0 是下一代通用技术平台.5 投资机会#1:算力需求增长利好芯片送水人.7 投资机会#2:谁会成为 2.0 时代的硬件载体?.9 投资机会#3:世界最后需要几家大模型公司?.10 投资机会#4:如何把握大模型应用的投资机会.11 2023 年十大投资机会.14 AI 大模型企业是如何炼成的大模型企业是如何炼成的.16 海外大模型:微软&OpenAI、谷歌、英伟达、Meta、AWS.16 国内大模型:百度、阿里、腾讯、华为、商汤、讯飞.31 相关未上市公司:智谱、MiniMax、第四范式、聆心智能、澜舟科技、云知声、扩博智能.44 算力:算力:AI 应用如何拉动需求变化
10、应用如何拉动需求变化.46 大模型对训练/推理算力需求的测算.47 计算芯片:算力储备竞赛开启,推理初步具备进口替代能力.49 服务器:AI 服务器市场稳步增长,2021-2026E CAGR 预计达 17%.54 先进封装&材料:高算力需求带动先进封装需求.56 光模块:数据中心市场空间广阔,2023 年有望迎 800G 放量元年.57 服务器产业链相关公司:工业富联、环旭电子.60 计算芯片产业链相关公司:燧原科技、壁仞科技、寒武纪、京微齐力、芯动科技、沐曦集成电路、海光信息、登临科技、中科驭数、摩尔线程、天数智芯、高云半导体、墨芯人工智能、智多晶、云天畅想.60 光通信产业链相关公司:长
11、光华芯、源杰科技、云岭光电、苏州熹联、天孚通信、中际旭创.64 云计算产业链相关公司:道客云、鹏云网络、StreamNative.66 AI 赋能百业:产业变革的奇点赋能百业:产业变革的奇点.68 AI+企业服务:赋能生产力/沟通/协作工具.68 AI+汽车:AI 大模型加速无人驾驶发展.70 AI+工业:ChatGPT 引领 AI 赋能工业,工业智能化水平或将加速提升.75 AI+金融:坐拥数据富矿,有望成为 AI 大模型率先落地的垂直领域之一.79 AI 赋能传媒:赋能传媒:AIGC 应用鹏程万里应用鹏程万里.83 AI+游戏:降本增效持续验证,AI 新玩法尝试创新.83 AI+电商:多场
12、景应用,降本增效提升体验.87 AI+影视:驱动影视创作升级.92 产业链相关公司:昆仑万维、汤姆猫、蓝色光标、焦点科技、华策影视等.98 AI for Science:人工智能助力科学探索的新范式:人工智能助力科学探索的新范式.100 AI+新药开发:根据功能需求设计/优化蛋白质,加速新药探索速度.101 AI+量子:优化软硬件设计,提升量子技术应用的效率与准确性.103 AI+核聚变:精准调控核聚变控制过程,降低开发周期.105 AI+材料科学:逆向设计是 AI 助力材料研发创新的主要范式.106 AI for Science产业链相关公司:国仪量子、本源量子、讯飞医疗、BrainCo、脑
13、虎科技.108 附录:附录:AI 大模型算法的前世今生大模型算法的前世今生.110 溯源:从经典神经网络到 Transformer 架构.111 发展:从 GPT-1 到 GPT-4,开启大模型新纪元.115 海外落地:BloombergGPT、AutoGPT、SAM.127 附录:附录:AI 大模型需要什么数据大模型需要什么数据?.132 数据将是未来 AI 大模型竞争的关键要素.132 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。3 科技 科技 海外主要大模型数据集.132 中国主要 AI 大模型数据集.138 高质量语言数据和图像数据或将耗尽,合成数据有望生成大模型数据.
14、145 数据产业链投资机会:数据生产环节、数据处理环节.146 数据服务相关公司:百度智能云、慧听、标贝、它思、Appen、Telus international、Scale AI.148 半导体国产化:供需错配推动半导体制造国产化加速半导体国产化:供需错配推动半导体制造国产化加速.150 中国半导体供需错配,国产替代主要集中在设计、封测等环节.150 机会#1 半导体设备:关注先进制程突破以及国产化率提升.155 机会#2 半导体设备零部件:国产化地位开始受到重视.161 机会#3 材料:国产基础较好,掩模版、光刻胶国产化率较低.166 半导体产业链未上市公司:悦芯科技、华封科技、先锋半导体
15、、御微半导体、世禹精密、汉骅半导体、佑伦真空、富乐华半导体、泰科天润、锐杰微科技.172 汽车智能化:红海竞争的破局点汽车智能化:红海竞争的破局点.175 智能驾驶:高级别辅助驾驶蓄势待发,国产供应商受益.175 智能座舱:从 4.0 多模态到 5.0 大模型,座舱智能化全面升级.180 车载芯片相关公司:地平线、黑芝麻智能、芯驰科技、芯擎科技,旗芯微.186 域控及数据标注相关公司:德赛西威、经纬恒润、纵目科技、魔视智能、宏景智驾、柏川数据.187 连接器相关公司:电连技术、瑞可达.188 传感器相关公司:加特兰、森思泰克、行易道、禾赛科技、速腾聚创、图达通、探维科技、灵明光子.189 AR
16、-HUD 相关公司:泽景科技、未来黑科技.191 商业航天:大年开启,关注行业机遇商业航天:大年开启,关注行业机遇.192 技术端:火箭、卫星制造技术均有突破.192 需求侧:行业需求加快落地.203 政策面:利好政策频出,投融资稳健增长.210 火箭相关公司:星际荣耀、星河动力、蓝箭航天、深蓝航天、中科宇航、天兵科技、凌空天行、东方空间.214 卫星制造相关公司:银河航天、长光卫星、时空道宇、工大卫星、国博电子、铖昌科技、海格通信、天银机电.215 地面设备相关公司:震有科技、航天驭星、信科移动.216 卫星运营服务相关公司:中国星网、中国卫通、航天宏图、中科星图.217 元宇宙元宇宙 20
17、23:苹果这次有什么不同?苹果这次有什么不同?.218 Meta Oculus 的失败教训.218 苹果带来的变化.221 生成式 AI 可能带来哪些变化.227 海外公司:英伟达,Epic games,Unity.230 整机品牌:Nreal、亮亮视野、Rokid、亮风台、大朋 VR.233 光模组领域:鲲游、耐德佳、至格、JBD、视涯、宏禧科技、赛富乐斯、熙泰、研鼎、蓝特光学.235 Web3:过去一年发生了什么?:过去一年发生了什么?.241 Web3:以所有权为核心的价值网络.241 风险事件频发,加密合规时代已至.243 基础设施层:寒冬孕育机遇,Web3 基础设施创新持续.247
18、应用层:市场回归冷静,关注 Web3 与真实世界连接.249 未来展望:Web3 离我们还有多远?.255 Web3产业链相关公司:趣链科技、矩阵元.256 风险提示.257 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。4 科技 科技 AI 2.0:十年之后我们还能做什么十年之后我们还能做什么 2010 年,麻省理工大学应用经济学教授达隆阿齐默鲁(Daron Acemoglu)等人在论文1中提出了科技发展如何影响人类就业和收入的分析框架(图 1)。当前,随着以 GPT-4 为代表的新一代 AI 技术的出现,人类正面临重新思考人工智能将如何影响我们今后工作生活的又一重要时刻。参考
19、阿齐默鲁教授的模型和咨询公司埃森哲近期关于工作受到生成式 AI 影响大小的研究结果2,我们把十个主要行业根据:1)工作方式是脑力为主还是体力为主,(2)工作内容是常规性还是非常规性进行划分,归纳了不同性质工作受到生成式 AI 影响的程度。我们认为,随着 AI 能力的不断增强,大语言模型(LLM)将从金融法律服务、软件外包等常规性的脑力工作开始,逐步替代人类工作。图表图表1:AI 2.0 时代,生成式时代,生成式 AI 或将逐步代替人类工作或将逐步代替人类工作 资料来源:Acemoglu and Autor(2010)Skills,Tasks and Technologies:Implicati
20、ons for Employment and Earnings,埃森哲,华泰研究 具体结论如下:1)常规性的脑力劳动容易被算法替代。常规性的脑力劳动容易被算法替代。这具体包括金融法律服务、软件外包、传媒等白领工作。这些工作需要收集,分析和解释大量基于语言的数据和信息,且含有较多重复性的知识劳动,与大语言模型的文本理解/生成以及逻辑推理能力高度重合,受到生成式 AI的影响可能较大;1 Acemoglu,D.,&Autor,D.(2011).Skills,tasks and technologies:Implications for employment and earnings.In Handb
21、ook of labor economics(Vol.4,pp.1043-1171).2 Accenture(2023).A new era of generative AI for everyone.免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。5 科技 科技 2)非常规性的脑力活动较难被算法替代。非常规性的脑力活动较难被算法替代。相较白领工作,新药开发等科研工作需要更高层次的认知和创造力,并且工作内容多变,难以被算法替代,受到生成式 AI 的影响较白领更小;3)常规性的体力劳动容易被自动化技术替代。常规性的体力劳动容易被自动化技术替代。在零售、制造等行业中,虽然涉及的语言相关
22、工作不多,受生成式 AI 的影响不大,但工作中有较多重复且任务标准化程度高的内容,容易被机器人等自动化技术所替代;4)非常规性的体力劳动受影响较小。非常规性的体力劳动受影响较小。建筑、餐饮旅游及交运、采矿等行业虽然也包含较多的体力劳动,但难以被自动化的长尾场景较多,目前看来,受到生成式 AI 和机器人技术的影响都较小。AI 2.0 是下一代通用技术平台是下一代通用技术平台 我们认为以 ChatGPT 为代表的大语言模型的出现,使人工智能技术的发展进入了 2.0 时代。AI 大模型已经具备 1)通用性强,2)固定成本高但边际成本递减等平台性技术的显著特征,有望成为继 PC,移动互联网,云计算,电
23、动车之后,下一个支撑科技创新的通用技术平台。如下图所示,每一代通用技术平台的出现,都会伴随几家平台性公司的出现。这具体包括,1)主机时代的 IBM,2)PC 时代的微软和 Intel(Wintel),3)智能手机时代的苹果和谷歌,4)云计算时代的亚马逊和英伟达,5)智能电动车时代的特斯拉和宁德时代。当我们进入 AI 大模型时代,我们认为,以微软为代表的大模型厂商和以英伟达为代表的算力提供方有望受益于 AI2.0 的崛起,实现平台扩张。图表图表2:AI 2.0 是下一代通用技术平台是下一代通用技术平台 资料来源:Wind,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。6
24、科技 科技 过去,计算机视觉等 AI 模型需要针对每个特定任务进行数据采集、模型训练等一系列工作,且训练出来的模型无法用到其他场景,这导致边际成本难以降低、难以大规模落地等问题。大模型的出现改变了 AI 模型的训练和使用的范式。在大模型的新范式下,首先训练出具备跨领域知识的基础模型(Foundation Model),然后通过微调等方式适配和执行下游各领域的任务,能够降低模型落地的边际成本。大模型的新范式带来了成本结构变迁:大模型出现之前的 AI 1.0 时代,模型训练成本和模型数量等比例增加,边际成本较高;AI 2.0 时代,训练基础模型的固定成本高,但微调以适应下游应用的成本极低,预训练模
25、型+微调的新范式边际成本低,具有明显的平台效应,为 AI 公司探索新商业模式提供机会。图表图表3:AI 步入步入 2.0 时代,边际成本大幅度下降时代,边际成本大幅度下降 资料来源:人工智能发展报告 2011-2020(清华大学,2021),华泰研究 我们相信 AI 2.0 是未来十年科技行业最重要的投资机会,建议投资人参考 4G 的投资逻辑,按照基础设施-终端-平台-应用 顺序寻找投资标的。复盘 4G 产业发展历程,我们看到在受益板块中电信设备商先行,手机次之、电信服务及移动互联网应用紧跟其后。第一阶段,爱立信等通信网络设备商享受最初的资本开支红利,但由于华为出现导致的格局改变以及设备投入存
26、在周期性,股价波动回到原点;其次,中国三大运营商在 4G 时代发挥着至关重要的作用,但由于来自监管的提速降费压力和业务范围的制约,运营商盈利增速缓慢;4G 时代应用端的主要附加价值被互联网占据,社交、游戏、电商和视频等领域出现了一批杀手级应用,以腾讯为代表的平台型企业也在互联网浪潮中实现市值飞跃。展望 AI 大模型时代,我们认为:1)算力基础设施率先受益:AI 大模型推动算力需求快速增长,基础设施的业绩成长确定性最高,主要产业链环节包括计算芯片、服务器、数据中心等;2)交互终端次之,当前智能手机是大模型应用的主要载体。未来看好大模型能力提升推动AR/VR,无人驾驶车,机器人等成为下一代硬件载体
27、的潜力。3)大模型平台是当下产业发展趋势中最核心的一环,看好 MaaS 成为 AI 大模型时代新的商业模式,关注各国对 AI 大模型企业监管政策对行业发展的影响;4)AI 2.0 最大的投资机会在应用。看好大模型在搜索,电商零售,办公,金融、医药等行业率先落地。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。7 科技 科技 图表图表4:从从 4G 周期经验看周期经验看 AI 大模型受益顺序大模型受益顺序 资料来源:Bloomberg,华泰研究 投资机会投资机会#1:算力需求增长利好芯片送水人:算力需求增长利好芯片送水人 我们认为,算力需求增长会率先利好算力芯片,光模块,服务器产业链
28、等送水人。根据 OpenAI 测算,目前算力的增速(翻 1 倍/3-4 个月)远超过摩尔定律(翻 1 倍/18-24 个月),未来 AI 应用的逐步丰富,将推动推理芯片等相关市场保持强劲增长。我们预计 2025 年左右当生成式 AI 应用大规模落地后,数据中心用推理及训练芯片市场约 900 亿美元,带动先进代工、先进封装、光模块、服务器在内相关产业链。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。8 科技 科技 图表图表5:大模型对半导体需求增长快于摩尔定律大模型对半导体需求增长快于摩尔定律 资料来源:NVIDIA Ian Buck statement(2018),华泰研究 算力
29、芯片:全球算力芯片:全球 900 亿美金市场,训练英伟达一家独大,推理百花齐放。亿美金市场,训练英伟达一家独大,推理百花齐放。我们认为是否拥有大模型将成为科技巨头科技平台企业的重要分水岭。我们预计全球有约 30 家科技巨头和 300 家 AI 大模型初创企业在进行算力相关投资。到 2025 年,这对应大约每年 300 亿美金训练芯片和 600 亿美金的推理芯片市场。其中,英伟达凭借 CUDA 软件框架构建的强大行业壁垒,在训练芯片市场一家独大,推理芯片方面,海外客户除了采用英伟达、AMD等的通用 GPU 以外,也会采用 TPU 等 ASIC 以提高性价比。国内客户出于供应链安全考虑,逐步提升国
30、产芯片的适用占比。海思,寒武纪,燧原等企业都有较好发展。服务器服务器/PCB/先进封装:先进封装:AI 服务器增速超传统服务器,高算力需求带动先进封装需求。服务器增速超传统服务器,高算力需求带动先进封装需求。从GPU 到 AI 工厂,我们认为 AI 计算会为整个服务器产业链带来增长。相较于全球传统服务器需求持续低迷,根据 IDC 预测 AI 服务器 21-26 年复合增速有望达到 17%。我们看到从单颗 GPU 芯片 H100,通过 NVLINK Switch 形成一颗巨型 GPU,然后通过 Quantum InfiniBand 技术,搭建有上百张 GPU 的 DGX 服务器,最后把多台 DG
31、X 联通形成一台 AI 超级计算机,整个系统的搭建过程会带动包括服务器整机、PCB、光纤光缆、电源在内的整个服务器产业链的性能升级。在先进封装领域,产业从 2.5D 封装正走向 3D 封装,根据Prismark 预测 ABF 载板作为先进封装关键材料有望在 21-26 年实现复合增速 11.5%,而相关测试设备有望长期受益于 Chiplet 和国产替代趋势。光模块:光模块:AI 大模型推动大模型推动 800G 光模块迎放量元年。光模块迎放量元年。以 ChatGPT 为代表的 AI 大模型,对数据中心内外的数据流量都提出了新要求,将带来光模块行业“量”和“质”的双重提升。以 ChatGPT 为代
32、表的 AI 大模型训练中,由于需要海量数据及跨机器协作,产生了大量的数据中心内部通信需求,无阻塞的胖树结构成为当下最主流的 AI 训练网络架构,带来两方面主要变化:1)量方面,AI 网络架构带来数据中心内部交换机、服务器数量的增加,光模块作为数据中心内外部连接的核心部件,用量将明显提升;2)质方面,AI 对于高速率、大带宽的网络需求将推动光模块向 800G 加速升级,根据 Lightcounting 预测,2023 将成为 800G 光模块放量元年,2028 年 800G 出货量有望达 998 万只,对应 2023-2028 年复合增长率为 72%。在此产业趋势下,我们认为能够提供高速光模块的
33、龙头企业以及上游光器件、光芯片厂商有望迎发展机遇。Moores Law2x/2yrs200000002221001001,0001,00010,00010,000100,000100,0001,000,0001,000,00010,000,00010,000,000100,000,000100,000,0001,000,000,0001,000,000,00010,000,000,00010,000,000,000AlexNetVGG-19S
34、eq2SeqResnetInceplionXceptionResNeXtDemseNet201ELMoMoCo ResNet50Wav2Vec 2.0TransformerGPT-1BERT LargeXLNetMegatronMicrosoft T-NLGGPT-3Megatron Turing NLG 530BTraining Compute(PetaFLOPS)Tramsformer275x/2yrsAI model25x/2yrs 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。9 科技 科技 投资机会投资机会#2:谁会成为:谁会成为 2.0 时代的硬件载体?时代的硬件载体
35、?我们认为大语言模型能力的不断增强,在为智能手机等现有硬件产品带来 AI 聊天等新的功能的同时,也会催生机器人,ARVR,无人驾驶车等新的硬件形态。从消费电子硬件变迁历程来看,硬件的升级和应用的发展是一个互相促进的关系。一个新的硬件形态(例如 2008 年的 iPhone,2023 年的苹果 Vison Pro)会吸引开发者开发新的应用,另一方面,新的应用(2013 年左右的手游)会推动硬件规格的升级。我们认为一个应用的能力可以分为感知、思考和行动三个维度。过去 15 年智能手机和电动车的发展,使手机,电动车等产品已经具备了较强的“感知”能力。过去几年 AI 云计算的发展,使硬件初步拥有了“思
36、考”的能力。展望未来,我们认为大语言模型会大幅提高硬件产品的“思考”能力,机器人技术的发展会提高硬件产品的“行动”能力。一个同时拥有(1)超强感知能力,(2)通用人工智能(AGI),和(3)灵活的行动能力的硬件产品,可能就是现在大家畅想中的人形机器人。虽然很难预判什么时候这个产品能够实现,但在最终实现人形机器人的过程中,我们相信会催熟 ARVR,无人驾驶车等很多新的硬件形态,带动产业发展。图表图表6:大模型发展推动硬件载体的变迁大模型发展推动硬件载体的变迁 资料来源:华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。10 科技 科技 投资机会投资机会#3:世界最后需要几家大
37、模型公司?:世界最后需要几家大模型公司?我们认为是否拥有大模型将成为科技巨头科技平台企业的重要分水岭。我们认为是否拥有大模型将成为科技巨头科技平台企业的重要分水岭。目前 AI 行业呈现出“百模大战”的格局,我们认为未来基础大模型可能呈现国内外各有数个赢家的寡头竞寡头竞争争格局。类比云计算领域,国外有 AWS(亚马逊)、Azure(微软)和 GCP(谷歌)三巨头,国内有 BAT 和华为,前期基础设施的巨大投入造成了云计算的寡头市场格局。与云计算类似,基础大模型需要耗费大量算力和数据标注成本,并且随着规模的增加,其训练费用将指数级增长。在高壁垒和地缘政治等原因下,未来基础大模型可能在国内外各自形成
38、寡头竞争格局。AI 大模型是一个资本密集,人才密集和数据密集的产业,如何形成“数据大模型是一个资本密集,人才密集和数据密集的产业,如何形成“数据-模型模型-应用”的应用”的飞轮,是大模型企业成功的关键。飞轮,是大模型企业成功的关键。具体而言,大模型的诞生以算力基础设施为根基,以算法为骨干,以高质量数据为血肉;大模型结合具体应用场景的落地产生应用;用户使用应用的过程中产生数据,数据又得以反哺模型。由此,从大模型的训练到应用落地产生闭环,我们认为“数据-模型-应用”的飞轮能否运转是大模型企业可持续发展和迭代的关键。图表图表7:形成“数据形成“数据-模型模型-应用”的飞轮,是大模型企业成功的关键应用
39、”的飞轮,是大模型企业成功的关键 资料来源:华泰研究 MaaS 可能成为可能成为 AI 大模型时代新的商业模式。大模型时代新的商业模式。过去云计算架构主要分为 IaaS、PaaS、SaaS 三层,经过多年发展,出现了像微软,MongoDB,Adobe 等一批代表性企业。未来,我们认为,MaaS(Model as a Service)可能成为 AI 大模型时代一种新的商业模式。如上所述,大模型具有固定成本高,通用性强等特点,MaaS 企业依托已经训练好的大模型,向 2B 客户提供包括 API 调用、模型训练、模型微调、模型部署服务等各类服务,数据,算法,算力将是 MaaS 企业的主要竞争壁垒。目
40、前,国内,阿里,百度,商汤等都已经宣布提供类似服务。应用应用AI大模型飞轮模型模型+场景+GPU+用户 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。11 科技 科技 图表图表8:大模型服务大模型服务(Model as a Service)有望成为有望成为 AI 时代新业态时代新业态 资料来源:A16Z 官网,华泰研究 监管政策是规范监管政策是规范 AI 大模型健康发展的基础,关注国内政策落地进展。大模型健康发展的基础,关注国内政策落地进展。大模型由于涉及到大量个人和企业数据,生成内容中存在虚假信息等风险,是当前全球各国监管关注的重点。23 年 6 月,欧洲议会在全球率先通过人工
41、智能法案,对 AI 模型提出了版权披露、保障隐私与非歧视等基本权利、风险分级监管等要求。23 年 4 月,国家网信办发布发布生成式人工智能服务管理办法(征求意见稿),明确要求,符合大模型生成的内容需要符合社会主义核心价值观,并要求人工智能企业在提供服务前,向国家网信部门申报安全评估;并按照互联网信息服务算法推荐管理规定履行算法备案和变更,注销备案等手续。关注监管政策落地对行业发展的影响。投资机会投资机会#4:如何把握大模型应用的投资机会:如何把握大模型应用的投资机会 我们认为,长期来看 AI 2.0 最大的投资机会在应用。根据科大讯飞董事长刘庆峰的观点,通用人工智能应当具备文本生成、语言理解,
42、知识问答、逻辑推理、数学、代码、多模态文本生成、语言理解,知识问答、逻辑推理、数学、代码、多模态等七大维度的能力。通过对 AI 在搜索、电商零售、办公、金融法律、影视游戏,医药、教育、汽车等行业应用前景的分析,我们认为,AI 应用的落地节奏或与行业数字化程度成正比,我们看到 AI 大模型在互联网(搜索+广告营销)、办公、金融等领域率先迎来“iPhone 时刻”。其中最值得关注的应用包括:1)知识对话在电商、金融、医疗等行业替代传统客服;2)文本和图像生成在办公、广告营销、金融、影视游戏等领域成为下一代生产力工具;3)多模态能力拓宽人类探讨世界的范围,特别是在新药开发上的应用前景。免责声明和披露
43、以及分析师声明是报告的一部分,请务必一起阅读。12 科技 科技 图表图表9:大语言模型如何赋能行业大语言模型如何赋能行业 资料来源:OpenBMB,华泰研究 AI+搜索:输入输出模态多样化,有望集成全新商业模式,打开行业天花板。搜索:输入输出模态多样化,有望集成全新商业模式,打开行业天花板。传统的搜索行为往往需要经历长时间的判断过程和多轮的互动,而 AI 技术的加入,将从底层结构上改变搜索形态,以 GPT 为代表的大模型加持赋能搜索行业:1)创造性内容生产与输出,AI大模型可以利用大量实时文本数据学习语言的规律,并根据用户指示创造性地完成特定需求下各种类型的文本输出,如故事、诗歌、摘要、代码等
44、。2)拓展搜索的多模态能力,利用 AI 技术处理视频、图片、语音等多种形式的信息,使搜索不再受限于信息的形态。AI+搜索的诞生便吸引了全球的注意力,内置 AI 聊天功能的 New Bing 搜索引擎在推出一个月后日活跃用户已突破 1 亿,自 New Bing 推出以来,聊天功能使用次数累计超过 4500 万次。根据 Industry growth insight,2021 年全球搜索市场规模为 109.0 亿美元,预计2023 年达到 123.6 亿美元。同时 AI+搜索也催生出未来新的商业模式,例如微软目前内部正在探讨在生成回复的引用链接中放置订阅制和弹出式广告的可行性,有望进一步打开新的市
45、场空间。AI+电商零售:定制化内容生成;个性化营销推广。电商零售:定制化内容生成;个性化营销推广。目前广告/营销行业存在单位推广成本高、转化率低的痛点,AI 能赋能行业生产力的提升,主要体现在:1)创新广告形式,提升信息传递效率,形成强流量、高互动,提高广告营收;2)提高营销内容生产效率、推进个性化营销;3)有望推动营销服务商商业模式革新、毛利率提升。通过以上赋能,行业增长空间有望提升,盈利能力。目前海内外 AI+广告/营销应用百花齐放,例如,国外 Adspert利用 AI 将广告全自动化,优化亚马逊广告竞价投放,增加销售额,提升投产比;国内腾讯广告大模型赋能广告制作环节,同时助力提升广告主
46、15%GMV。AI+办公:生产力的又一次跃升;重塑内容生产、沟通、协作模式。办公:生产力的又一次跃升;重塑内容生产、沟通、协作模式。生成式 AI 当前在办公领域的应用主要包括改善生产力、沟通、协作工具等应用方向。以 Microsoft 365 Copilot为例,Copilot 通过把 GPT-4 提供的内容生成功能,与存储在 Graph 数据库中的企业数据,以及 Word、Powerpoint、Excel、Outlook、Teams 等办公工具相结合,提供包括内容创作、数据分析、辅助决策等一系列新功能。生成式 AI 将传统的点式交互升级为自然语言的交互方式,能够实现更灵活的功能调度,进一步降
47、低办公场景的沟通协作成本,提升工作效率。此外,生成式 AI 能够挖掘办公场景中的数据价值,提供知识管理等功能,进一步提升产品的价值空间。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。13 科技 科技 AI+金融:广泛应用于银行、保险、资管、投顾等环节,助力金融机构降本增效。金融:广泛应用于银行、保险、资管、投顾等环节,助力金融机构降本增效。我们认为垂直行业的高价值量数据对于 AI 大模型的训练和垂直领域应用至关重要,金融行业数字化程度领先,拥有数据富矿,有望成为 AI 大模型率先落地的垂直领域之一。应用端,我们看到生成式和理解式大模型在银行、保险、资管、投研、投顾等多个细分领域正
48、在落地或拥有潜在落地场景,帮助金融机构降本增效。过去,理解式大模型主要用于信息识别与挖掘,例如风险识别、客户识别等等。生成式 AI 的主要落地场景包括应用于各金融子行业的智能客服以及内容生成,例如投研领域的研报生成、投顾领域的投资建议生成、保险/资管领域的合同模板生成等等。AI+游戏:游戏:AIGC 带来玩法体验端的创新升级,以及生产营销端的降本提效。带来玩法体验端的创新升级,以及生产营销端的降本提效。1)玩法体验端:目前看 AIGC 有望在 NPC 智能交互及玩法设计创新方面加速应用,AINPC 的不断成熟将改变游戏玩家与角色的交互方式,进一步提升游戏沉浸感;同时,AIGC 带来的 UGC
49、等玩法创新也有望带来全新的游戏类型,进一步提升游戏内容的丰富度及自由度。2)生产营销端:以 ChatGPT 等大语言模型为基础的文本类 Al 生成工具、StableDiffusion 及 Midiourney等 Al 图像生成工具、Gen2 等 Al 视频生成工具等已在游戏行业各环节有所应用,同时英伟达、微软、Epic Games、Unity 等基于原有产品或服务纷纷推出 AIGC 功能。随工具化AIGC 产品和服务快速迭代,行业“卖铲人”将加速 AIGC 对行业赋能,带来进一步的降本提效空间。AI+教育:虚拟个性化辅导教学,提升教学质量同时降本增效。教育:虚拟个性化辅导教学,提升教学质量同时
50、降本增效。传统教育具有人工成本高、内容同质化以及资源分配不均匀的弊病。基于多模态模型在文本、图像等领域取得重大突破,生成式 AI 技术有望协助构建智慧教育新生态。近期国内外多家公司发布 AI+教育产品,例如多邻国在“Max 订阅方案”中推出两项基于 ChatGPT-4 设计的教辅功能、网易有道发布 AI 口语老师以及科大讯飞发布“1+N”星火认知大模型等。随着大模型的迭代升级,我们看好生成式 AI 应用于个性化辅导、AI 虚拟教师等领域,助力打造全新的低成本、个性化自适应教育模式,推动优质教育资源的规模化应用。同时建议关注 AI+教育带来的智慧校园、智能终端等硬件设备,以及相关 IT 基础设施
51、、云服务等软件设施的投资机会。AI+医疗:拓宽人类对自然界的认知半径,探索科学边界。医疗:拓宽人类对自然界的认知半径,探索科学边界。医疗健康领域是人工智能率先落地的行业之一,也已经催生了 Nuance、IBM Watson 等一批全球知名企业。随着基于大模型的生成式 AI 的出现,我们看到 AI+医疗有望迎来一波新的发展机遇。我们看好生成式AI:1)应用于实时病例生成、医疗影响分析等领域,从而发挥提高问诊效率、降低数据分析的人工成本等作用;2)赋能药物发现源头创新,探索自动根据功能需求设计/优化蛋白质、给定抗原等目标蛋白生成抗体等,加速药物发现流程。AI+汽车:降低数据搜集、处理成本,优化驾驶
52、体验,高级别智能驾驶落地可期。汽车:降低数据搜集、处理成本,优化驾驶体验,高级别智能驾驶落地可期。无人驾驶看上去很美,但一直很难落地。无人驾驶是最早被提出的人工智能应用场景之一,谷歌、苹果、特斯拉、百度等海内外科技巨头从 2016 开始就积极布局,但直到现在仍很难实现大规模商用落地。我们认为,1)多维度数据的获取和标注成本高,2)对小概率事件的决策准确度和人类还存在较大差距,3)事故时法律权责归属不明确,是制约其发展的部分原因。我们认为,1)以 ChatGPT 和 SAM 为代表的 AI 大模型的引入,自动标注、虚拟仿真等技术的引入大幅降低模型中数据的采集和处理成本;2)感知、预测、执行全流程
53、算法迭代,体验能力的提升有助于从行业整体层面加速高级别智能驾驶的量产落地。看好 AI大模型赋能之下,降低数据标注成本,提升感知预测执行全流程能力。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。14 科技 科技 图表图表10:AI 产业链相关公司产业链相关公司 海外海外/中国台湾公司中国台湾公司 中国大陆公司中国大陆公司 算力 芯片 英伟达、AMD、台积电 寒武纪、海光信息、芯原股份 光模块/光芯片 Coherent 中际旭创、天孚通信、长光华芯、源杰科技 先进封装 味之素、Ibiden、Shinko、ASMPT、Shibaura 长电科技、通富微电 服务器 惠普、戴尔、广达、纬颖
54、、英业达 工业富联、联想、浪潮信息 硬件 人形机器人 特斯拉 小米集团、优必选、绿的谐波、拓普集团、三花智控 AR/VR 苹果、Meta 字节跳动 模型 微软、谷歌、英伟达、Meta、亚马逊 百度、阿里巴巴、腾讯、商汤、科大讯飞 应用 搜索 谷歌、微软 百度、三六零、昆仑万维 电商零售 亚马逊、Shopify 阿里巴巴、京东、焦点科技 办公 微软、谷歌、Adobe、Salesforce 金山办公、福昕软件、泛微网络、致远互联、万兴科技 金融法律 Bloomberg 同花顺 医药 Schrodinger、Exscientia、Atomwise 英矽智能、晶泰科技 教育 DUOLINGO 科大讯飞
55、、视源股份、传智教育、好未来、有道 汽车 特斯拉 小鹏汽车、蔚来汽车、理想汽车 资料来源:华泰研究 2023 年十大投资机会年十大投资机会 长期来看,我们认为全球科技行业的发展会沿着元宇宙,人类永生、和星际文明三个维度演进。其中,1)追求永生是推动人类进步的动力之一,未来脑机接口、纳米机器人等前沿科技有望继续延长人类寿命;2)元宇宙是互联网的下一站,也是人类数字化迁移的下一步;3)移民火星的意义在于为人类文明留下“备份”,随着航天技术突破,星际旅行与火星移民终将实现。图表图表11:科技板块投资机会科技板块投资机会 资料来源:华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。
56、15 科技 科技 过去一年,在这三个维度上,除了 AI 大模型以外,我们还看到科技行业发生了以下变化。1)商业航天:近一年来,我们观察到中国商业航天产业链上下游发生明显变化。在技术端,国内民营液体火箭公司积极探索发动机技术与可回收技术突破,国内卫星制造在国家统筹规划、民企合力组建下步入规模化发展。在需求端,我国多项星座计划有序开展部署,中国星网预计明年上半年开始发射;“卫星直连”成为行业热点,手机、汽车、模组厂商积极开展尝试;工信部提出加快 6G 研发,为卫星互联网提供重要机遇。在政策面,国内多省市利好政策频出,助力商业航天产业成长。建议关注我国商业航天产业链发展机遇。2)元宇宙:受 Meta
57、 缩小在硬件上的投入以及币价下跌等影响,元宇宙产业链从 2022年下半年开始出现回调。6 月,苹果正式发布第一代头显产品 Vision Pro,在微显示技术(硅基 OLED)和人机交互技术(眼动和手动追踪)上和 Oculus 等现有产品比有了显著的提升。后续关注苹果如何发挥其在开发者和用户生态上的优势,以及生成式AI 等最新的技术发展,激活元宇宙生态,值得关注。3)Web3:回顾 Web3 过去一年,加密寒冬中市场风险事件频发,加速合规框架建立成为美国、欧洲、新加坡、香港等各国家/地区监管强共识。同时,行业创新持续,基础设施层:1)以太坊完成合并驱动生态进入新阶段,市场关注 Layer2 扩容
58、、流动性质押等赛道。2)央行数字货币在过去一年取得了积极进展,或将成为区块链技术逐步迈入主流的铺垫。应用层:1)金融领域,流动性质押衍生品、现实世界资产等新赛道兴起,印证普通人进入门槛降低,Web3 正逐步完善与真实世界的连接;2)非金融领域,NFT 成交量高位跌落后,市场投机情绪减弱,关注 Web3 和音乐、社交、游戏等具体场景结合。4)半导体国产化:我们认为半导体设备和材料是中国半导体行业国产化的关键一环,美国、日本进一步收紧出口限制,中国半导体当前面临国内需求远大于国内供应链产能的供需错配现象。2022 年中国计算、手机、汽车、通信等系统厂商半导体消费额超过 1068 亿美元,约占全球半
59、导体消费额的 25%,而中国代工收入仅为全球 10%。在半导体设备(全球市占率 5%)、材料(全球市占率 9%)等环节存在严重“卡脖子”问题。在国产化推动下,我们看好:(1)设备:刻蚀、薄膜沉积、量检测等;(2)零部件:射频电源、光学镜头、金属结构件等,(3)材料:光刻胶、抛光液/垫等投资机会。5)汽车智能化:在汽车电动化渗透率不断提高的背景下,汽车智能化较大可能成为下一个红海竞争的破局点,具体表现在:智能驾驶领域:领航辅助驾驶(NOA)等高级别辅助驾驶功能模型成熟度不断提高,市场领先者的测试版逐渐落地。我们认为今年或是城市 NOA 普及的元年并且成本有望进一步下降,国产供应商有望受益。智能座
60、舱领域:现阶段智能座舱已经处于全面向 4.0 阶段发展的时期,硬件的装载是实现软件层交互的基础,座舱硬件已率先迎来大规模上车机遇;其次在智能座舱大模型生态发展下,我们认为拥有大模型和机器视觉技术布局的软件层企业同样有望受益。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。16 科技 科技 AI 大模型企业是如何炼成的大模型企业是如何炼成的 我们认为我们认为 AI 大模型是一个资本密集、人才密集和数据密集的产业,如何形成“数据大模型是一个资本密集、人才密集和数据密集的产业,如何形成“数据-模型模型-应用应用”的飞轮,是大模型企业成功的关键。的飞轮,是大模型企业成功的关键。我们看到海外
61、企业中,微软&OpenAI、谷歌已经逐步形成 AI 大模型的飞轮。当前,国内百度、阿里、商汤、华为等积极加入,行业呈现“百模大战”的竞争格局,能否形成飞轮是最后能否胜出的关键。海外大模型:微软海外大模型:微软&OpenAI、谷歌、英伟达、谷歌、英伟达、Meta、AWS 微软微软&OpenAI 领先,谷歌追赶,领先,谷歌追赶,Meta 防御性开源,英伟达转型算力云服务防御性开源,英伟达转型算力云服务 微软和 OpenAI 是目前大模型技术水平、产品化落地最为前沿的领军者,其对颠覆式创新的持续投入是当前领先的深层原因。谷歌技术储备丰厚,自有业务生态广阔并且是 AI 落地的潜在场景,但管理上未形成合
62、力,目前正在产品化、生态化加速追赶。英伟达是 AI 芯片领军者,CUDA 框架构筑了其它芯片公司难以逾越的护城河,目前正在从硬件向算力云服务、MaaS 等商业模式转型。Meta 在产品化上进展缓慢,选择模型开源的防御性策略,以应对 OpenAI、谷歌等竞争对手的强势闭源模型。AWS 作为领先的云服务厂商,超算技术布局领先,但是在 AI 大模型竞争上的应对稍显迟缓。图表图表12:海外科技巨头海外科技巨头 AI 布局布局 资料来源:公司官网,华泰研究 OpenAI:全球领先的:全球领先的 AI 初创企业初创企业 发展历程:从非营利开端到向营利性全面转型发展历程:从非营利开端到向营利性全面转型 Op
63、enAI 是美国一家人工智能研究实验室,由非营利组织 OpenAI 和其营利组织子公司OpenAI LP 所组成,公司致力于构建安全的通用人工智能(AGI)以造福人类。非营利开端:硅谷领军人物云集,创建非营利组织以促进非营利开端:硅谷领军人物云集,创建非营利组织以促进 AI 发展。发展。非营利性的 AI 项目OpenAI 于 2015 年宣布正式启动,由许多硅谷领军人物共同创建,例如硅谷创业孵化器 Y Combinator CEO 的 Sam Altman、Google Brain 的 Ilya Sutskever、时任互联网支付处理平台 Stripe CTO 的 Greg Brockman
64、以及特斯拉的 CEO Elon Musk 等,许多创始人都曾是被誉为“深度学习教父”Geoffrey Hinton 教授的学生。公司把生成式预训练模型(Generative Pre-trained Transformer,GPT)确定为主要研究方向,先后推出并开源预训练 NLP 模型 GPT-1,以及采用迁移学习技术、能实现多个 NLP 任务的 GPT-2。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。17 科技 科技 向营利性转型:与微软深度绑定,推出掀起生成式向营利性转型:与微软深度绑定,推出掀起生成式 AI 浪潮的浪潮的 ChatGPT。2018 年,由于Elon Musk
65、 担任 CEO 的 Tesla 等公司也在开发 AI 技术,存在利益冲突和人才争夺等矛盾,Elon Musk 辞去 OpenAI 董事会席位。为支撑大模型训练的高算力和资金需求,同年,有限营利公司 OpenAI LP 成立。2019 年,OpenAI LP 接受微软 10 亿美元投资,与其达成独家合作伙伴关系。在强大算力和充足资金的助力下,OpenAI 沿着 GPT 路线持续发力,2020 年推出拥有小样本泛化能力的 GPT-3,2022 年推出加入指示学习(Instruction Learning)和人类反馈的强化学习(Reinforcement Learning from Human Fe
66、edback,RLHF)的 InstructGPT,并于 2022 年发布产品化的 ChatGPT,掀起了一股席卷全球的生成式 AI 浪潮。全面转型:加快商业化步伐,构建生态圈。全面转型:加快商业化步伐,构建生态圈。2023 年 1 月,微软宣布与 OpenAI 的长期合作伙伴关系进入第三阶段,将继续向 OpenAI 投资数十亿美元,并加速产品与技术的整合。2023 年 3 月,OpenAI 发布工程化的多模态 GPT-4,并与各个领域的软件开展合作;同月,OpenAI 发布 ChatGPT Plugins(ChatGPT 插件集),将 GPT 大模型能力与面向用户的第三方应用程序互联,应用空
67、间想象力广阔。图表图表13:OpenAI 的发展历程的发展历程 资料来源:腾讯科技公众号,OpenAI 官网,华泰研究 团队:年轻、背景豪华且高度聚焦技术团队:年轻、背景豪华且高度聚焦技术 OpenAI 有着一支高人才密度、高效率的“特种兵”创始人团队。有着一支高人才密度、高效率的“特种兵”创始人团队。首席执行官兼联合创始人 Sam Altman,曾任硅谷创业孵化器 Y Combinator 的 CEO,于 2015 年带领创建了OpenAI,致力于构建安全且人类级别 AI。总裁兼联合创始人 Greg Brockman,曾任互联网支付处理平台 Stripe 的 CTO,在 OpenAI 曾用九
68、个月时间从“零”学起成为一名 1 顶10 的 AI 工程师,是技术产品化的第一推手。首席科学家兼联合创始人 Ilya Sutskever,曾就职于 Google Brain,参与了深度学习框架 TensorFlow、生成式对抗网络(GAN)和序列到序列(Seq2Seq)模型的研究,在 OpenAI 领导了 GPT-1/2/3、DALLE 以及ChatGPT 等模型的研发。微软的 AI 研究实验室(Microsoft Research AI)是推进 AI 研究的主力团队。实验室于2017 年成立,隶属于微软研究院,凝聚了来自感知、学习、推理和自然语言处理等多个AI 研究子领域的顶尖科学家,旨在将
69、不同学科结合起来以推进 AGI 技术研发。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。18 科技 科技 图表图表14:OpenAI 和微软的核心成员或和微软的核心成员或 AI 团队介绍团队介绍 资料来源:MicroSoft Research 官网,华泰研究 AMiner 与智谱研究发布的报告显示,团队规模虽不足百人(共 87 人),但有着以下显著特征:1)平均年龄 32 岁,“90 后”是主力军;2)学术能力和业界经验均突出,其中有10 人来自谷歌;3)技术人员近九成,高度聚焦技术研发;4)LLM 领域的经验丰富,1/4团队成员曾参与 Codex 项目。算力:强大的算力支撑算力
70、:强大的算力支撑 GPT 释放大模型潜能释放大模型潜能 2020 年,微软为 OpenAI 专属打造拥有超过 28.5 万张 CPU、1 万张 GPU 的 AI 超级计算机,通过 Azure 云平台给予其算力支持,并保证该部分算力不会被 Azure 其他服务占用,为 OpenAI 的大模型训练配置强大且灵活的计算资源和基础设施。此外,芯片龙头企业NVIDIA 也与 OpenAI 保持紧密合作,供应最先进的 GPU 以支持 GPT 系列模型的加速计算,例如 2021 年 OpenAI 将 NVIDIA 全球首款 DGX AI 超级计算机用以训练 GPT-3.5。微软正在自研微软正在自研 AI 芯
71、片,首要目标便是为芯片,首要目标便是为 OpenAI 提供算力。提供算力。2023 年 4 月,据 The Information 报道,微软正在秘密研发自己的 AI 芯片,代号雅典娜(Athena)。雅典娜芯片由台积电代工,采用 5nm 先进制程,首个目标便是为 OpenAI 提供算力引擎,以替代昂贵的英伟达 A100/H100,节省成本。微软从 2019 年就开始研发这款芯片,目前已在测试阶段。模型:坚持模型:坚持 GPT 技术路径,持续探索生成式技术路径,持续探索生成式 AI 潜力潜力 OpenAI 从 18 年起一直沿着 GPT 路线持续发力,通过 GPT1/2/3/3.5/4 等模型
72、不断地进行技术探索。在模型架构上,GPT 是侧重生成的单向模型。模型的基础架构是 Transformer的解码器,解码器的第一个自注意力层加入了掩蔽机制,使得句子的未来信息被隐藏,由于其只能通过学习当前和历史的文本信息,来对下一个字进行预测,因此属于单向的生成式模型。生成式模型相比理解式模型通常具有更高的灵活性和更强的泛化能力,在应用时更具通用性。GPT 系列模型结构秉承了不断堆叠 Transformer 的思想,通过不断提升训练语料的规模、网络的参数数量来完成 GPT 系列的迭代更新。图表图表15:GPT 系列的迭代更新系列的迭代更新 资料来源:斯坦福 Ecosystem Graphs,陈巍
73、谈芯公众号,华泰研究 Transformer层数层数训练语料量参数量模型性能训练语料量参数量模型性能GPT-1125GB1.17GPT-24840GB15GPT-3961350GB1750层亿生成的文本存在不流畅和不合理层亿可以生成更长、更自然、更连贯的文本;具备对未知词的生成能力层亿可以在没有接受任何指导的情况下完成一些任务;支持多语种生成和对话生成等其他任务 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。19 科技 科技 InstructGPT 极大地提升了通用极大地提升了通用 AI 系统与人类意图的对齐能力。系统与人类意图的对齐能力。InstructGPT 基于 GPT-3
74、的架构,引入了指示学习(Instruction Learning)来使得 AI 系统更遵循人类指令,减少产生有害或错误内容的可能性;同时,引入人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)训练机制,通过强化学习范式让生成式 AI 产出的内容更符合人类意图。多模态能力和预测扩展工具让多模态能力和预测扩展工具让 GPT-4 与万物互联。与万物互联。2023 年 3 月,OpenAI 发布 GPT-4,模型支持文本和图像输入的多模态能力,应用空间想象力大,有望重塑从浏览器到文档智能等的软件交互。同时,OpenAI 推出具备预测扩展
75、性的深度学习堆栈,用极小算力成本就能可靠预测 GPT-4 在下游垂直领域应用的性能,让小成本广泛试用成为可能。在选择合适的大模型后,模型微调让通用基础模型在细分领域的表现进一步提升。应用:以产品为导向形成数据飞轮,逐步构建生态圈应用:以产品为导向形成数据飞轮,逐步构建生态圈 OpenAI 始终以产品为导向,积极推出产品以迅速获取用户,从而得到用户反馈数据来训练出更好的模型。2020 年,OpenAI 在发布 GPT-3 后快速开放商用 API 服务,让下游客户通过 API 调用模型能力。在 ChatGPT 的训练过程中,则融入用户数据反馈:1)采用GPT-3 API 获取的真实用户请求微调基础
76、模型;2)引入 RLHF 训练机制,采用人工标注的数据,通过人类的反馈进行强化学习,针对性地进行模型优化。这使得 ChatGPT 在多个自然语言任务如文书写作、代码生成与修改、多轮对话等中展现出远超 GPT-3 的优秀能力,并有效减少有害和不真实输出。技术与产品的整合进一步推动数据飞轮的运转。技术与产品的整合进一步推动数据飞轮的运转。当前,微软将把 OpenAI 的技术与旗下各应用生态的产品整合,涵盖企业级云计算、办公、底层代码生成和娱乐交互等各个应用层面。图表图表16:微软产品与微软产品与 OpenAI 模型的整合模型的整合 资料来源:微软科技公众号,大数据应用公众号,机器之心公众号,华泰研
77、究 谷歌:谷歌:LLM 领域的奠基者领域的奠基者 发展历程:从发展历程:从 AI 技术研发的领军者到产业化进程的推动者技术研发的领军者到产业化进程的推动者 谷歌联手谷歌联手 AI 初创企业初创企业 DeepMind,率先展开,率先展开 AI 领域的技术布局。领域的技术布局。2014 年,谷歌收购 AI初创公司 DeepMind。DeepMind 持续探索模拟、生物科研、游戏操作、对话聊天等领域的高性能算法,代表产品包括打败世界围棋冠军的 AIphaGo、精准预测蛋白质结构的AIphaFold、战胜电竞职业玩家的 AIphaStar、智能聊天机器人 Sparrow 等。在在 LLM 领域,谷歌是
78、新技术研发的领军者和奠基者。领域,谷歌是新技术研发的领军者和奠基者。2015 年,谷歌开源了深度学习框架TensorFlow,其具备灵活、可扩展且易于部署等优势,成为应用最广泛的深度学习框架之一,尤其在工业应用处于领先地位。2017 年,谷歌发布 NLP 领域的里程碑Transformer,它首次引入注意力机制,使得模型能更好地处理长文本和复杂的语言结构,大幅提高 NLP 任务的准确度和效率,为后来所有大语言模型奠定基础架构。2018 年,谷歌发布 3.4 亿参数的大规模预训练模型 BERT,在理解复杂的语言结构和语义中表现优秀,在多项 NLP 任务上的效果都远远超过了传统的浅层架构,宣告 N
79、LP 范式转变为大规模预训练模型的方法。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。20 科技 科技 谷歌加快生成式谷歌加快生成式 AI 产业布局。产业布局。OpenAI 于 2022 年底推出的 ChatGPT 掀起了席卷全球的生成式 AI 浪潮,使得 GPT 能力在各个行业和领域不断拓展,并对谷歌 AI 领先地位构成挑战。作为应对,谷歌于 2023 年 2 月宣布通过投资联手 AI 初创公司 Anthropic,将在谷歌云上部署 ChatGPT 的有力竞品 Claude,并于同月推出自研的基于 1270 亿参数大模型LaMDA 的聊天机器人 Bard。图表图表17:谷歌谷歌
80、 AI 领域的发展历程领域的发展历程 资料来源:DeepMind 官网,Google 官网,斯坦福 Ecosystem Graphs,OpenBMB 网站,华泰研究 团队:团队:Google DeepMind 汇集谷歌汇集谷歌 AI 领域人才领域人才 经过两轮人才整合,当前谷歌主要经过两轮人才整合,当前谷歌主要 AI 研发团队合并为研发团队合并为 Google DeepMind。2023 年 2 月,谷歌旗下专注 LLM 领域的“蓝移团队”(Blueshift Team)宣布加入 DeepMind,以共同提升 LLM 技术的能力。4 月,谷歌宣布正式将谷歌“大脑”和 DeepMind 两大团队
81、合并,组成“Google DeepMind”部门。Google DeepMind 部门首席执行官将由 DeepMind 联合创始人兼首席执行官 Demis Hassabis 担任;原谷歌大脑团队负责人 Jeff Dean 转任谷歌首席科学家,领导谷歌 AI 相关的最关键和战略性的技术项目,其中首要项目就是系列多模态AI 模型。AI 领域的世界级人才与计算能力、基础设施和资源的汇集,将显著加快谷歌在AI 方面探索的进展。图表图表18:Google 主要的主要的 AI 研发团队研发团队 资料来源:Google 官网,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。21 科技
82、科技 算力:算力:TPU 系列芯片和新一代超级计算机支撑系列芯片和新一代超级计算机支撑 AI 大模型训练和创新大模型训练和创新 TPU(Tensor Processing Unit)是谷歌专门为高效计算和加速神经网络训练和推理过程而设计的专用芯片(ASIC)。2016 年,谷歌发布第一代 TPU,成为 AlphaGo 背后的算力。与 GPU 相比,TPU 采用低精度计算,在几乎不影响深度学习处理效果的前提下,大幅降低了功耗、加快运算速度。最新一代的 TPU v4 发布于 2021 年,在相似规模的系统训练中,TPU v4 比 A100 计算速度快 1.15-1.67 倍、功耗低 1.33-1.
83、93 倍。TPU v4 卓越的性能、可伸缩性和灵活性使其成为支持 LaMDA、MUM、PaLM 等大规模语言模型的主力产品。谷歌推出新一代超级计算机谷歌推出新一代超级计算机 A3 Virtual Machines,为大型语言模型创新提供动力。,为大型语言模型创新提供动力。谷歌于 2023 年 5 月的 I/O 大会发布 A3 超级计算机,其采用第 4 代英特尔至强可扩展处理器、2TB DDR5-4800 内存以及 8 张英伟达 H100。此外,A3 是首个使用谷歌定制设计的 200 Gbps IPU 的 GPU 实例,GPU 间的数据传输绕过 CPU 主机,通过与其他虚拟机网络和数据流量分离的
84、接口传输,网络带宽相比 A2 增加 10 倍,具有低延迟和高带宽稳定性。A3超级计算机专门设计用于训练和服务对计算资源要求极高的 AI 大模型,这些模型将推动当今生成式 AI 和大型语言模型的创新进展。框架:领先的自研深度学习平台框架:领先的自研深度学习平台 TensorFlow 2015 年,谷歌开源了深度学习框架 TensorFlow,其是当前 AI 领域的主流开发工具之一。TensorFlow 采用计算图来表示神经网络计算过程和数据流动,从而实现高效的并行数据处理和运算,尤其在大规模分布式训练方面具有优势。TensorFlow 还提供了广泛的工具和API,可用于各种类型的深度学习应用,例
85、如计算机视觉、自然语言处理和语音识别等领域。此外,TensorFlow 具有很好的可移植性,能够在多种硬件设备和操作系统上运行。目前,TensorFlow 生态系统完备,为研发人员提供了从模型构建到部署和运营管理的全套工具链,是深度学习领域应用最广泛的框架之一,特别在工业级领域应用处于领先地位。模型:各技术路线的模型储备丰富,多模态大模型实现人机交互领域突破模型:各技术路线的模型储备丰富,多模态大模型实现人机交互领域突破 谷歌在谷歌在 AI 各技术路线上积累了丰富的模型储备。各技术路线上积累了丰富的模型储备。从基础架构的角度,其技术路线主要可以分为三个方向:1)基于)基于 Transforme
86、r 纯编码器(纯编码器(Encoder-only):与单向生成的 GPT 模型不同,纯编码器模型是侧重理解的双向模型,通过并行计算和多头注意力层来学习单词之间的相关性,实现上下文理解。主要模型包括语言模型 BERT、LaMDA、PaLM、基于 LaMDA 的对话模型 Bard 以及多模态视觉语言模型 PaLM-E。2)基于)基于 Transformer 纯解码器(纯解码器(Decoder-only):纯解码器是单向生成模型,主要用于句子生成。主要模型包括谷歌的语言模型 FLAN、DeepMind 的语言模型 Gopher。3)基于)基于 Transformer 统一架构(统一架构(Encode
87、r-Decoder):统一模型框架能兼容以上两类模型的理解和生成的下游任务。主要模型包括语言模型 T5、对话模型 Sparrow。图表图表19:谷歌在谷歌在 AI 各技术路线发布的主要模型各技术路线发布的主要模型 资料来源:Google 官网,斯坦福 Ecosystem Graphs,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。22 科技 科技 多模态视觉语言大模型多模态视觉语言大模型 PaLM-E 实现人机交互领域的重大飞跃。实现人机交互领域的重大飞跃。2023 年 3 月,谷歌发布5620 亿参数的多模态视觉语言模型 PaLM-E,是 PaLM-540B 语言模型
88、与 ViT-22B 视觉模型的结合。与传统的语言模型相比,PaLM-E 具有更高的效率和灵活性,可以根据输入的复杂度和任务的需求动态地激活不同的模块。同时,PaLM-E 可以通过文本、图像和视频等多种类型的输入来理解和控制机器人等实体化系统,从而实现具象化的能力。PaLM-E的发布代表着人机交互领域的一次重大飞跃,在工业、商业、办公等领域的机器人应用上有着较大的想象力。图表图表20:PaLM-E 机器人执行“从抽屉里拿出薯片”的多步骤指令机器人执行“从抽屉里拿出薯片”的多步骤指令 图表图表21:PaLM-E 机器人规划“将积木按颜色分类”的长周期任务机器人规划“将积木按颜色分类”的长周期任务
89、资料来源:GitHub PaLM-E,华泰研究 资料来源:GitHub PaLM-E,华泰研究 最新的大语言模型最新的大语言模型 PaLM 2 在多语言能力、代码能力和逻辑能力上得到显著提升。在多语言能力、代码能力和逻辑能力上得到显著提升。谷歌于2023 年 5 月的 I/O 大会发布 PaLM 2,模型基于 2022 年 10 月提出的 AI 新架构 Pathways,并基于 TPU v4 和 JAX 框架训练。在语言能力上,PaLM 2 的训练数据超过 100 种语言,能理解、翻译和生成更准确和多样化的文本;同时,PaLM 2 在 20 种编程语言上进行训练以提升代码能力。在逻辑能力上,P
90、aLM 2 在推理、数学任务测试中显著优于 PaLM,并与 GPT-4 相当。此外,谷歌在 PaLM 2 的基础上还训练了用于编程和调试的专业模型Codey,安全知识模型 Sec-PaLM 以及医学知识模型 Med-PaLM 2。模型压缩技术将加速模型压缩技术将加速 AI 技术与智能终端的融合。技术与智能终端的融合。PaLM2 主要包含 4 种规格(Gecko、Otter、Bison 和 Unicorn),其中体积最小的 Gecko 可以在手机上运行,每秒可处理 20 个Token,大约相当于 16 或 17 个单词。模型压缩技术或将成为实现 AI 大模型在边/端部署的核心技术,加速 AI 技
91、术与智能终端融合。应用:积极布局生成式应用:积极布局生成式 AI 应用以迎接挑战应用以迎接挑战 谷歌在过去更注重发表论文,未能及时将成果产品化。谷歌在过去更注重发表论文,未能及时将成果产品化。谷歌在各种路线上发布了很多模型,论文成果丰富,但均未能走出象牙塔落地;同时,旗下 DeepMind 研发的基础语言模型Gopher、Chinchilla 和对话模型 Sparrow 也尚未产品化。积极布局生成式积极布局生成式 AI 领域应用以迎接挑战。领域应用以迎接挑战。谷歌于 2023 年 2 月发布基于 1370 亿参数大模型 LaMDA 的 AI 聊天机器人 Bard。谷歌在 4 月发布了 Bard
92、 的更新版本,升级了数学与逻辑能力。2023 年 5 月 I/O 大会,谷歌展示了 Bard 支持的文字、代码、图像生成与理解能力,并重点强调了 Bard 与谷歌应用及外部其他应用的协同能力。此外,谷歌通过投资联手 AI 初创公司 Anthropic,押注 ChatGPT 的有力竞品 Claude。面向开发者,谷歌开放 PaLM 的 API,并发布工具 MakerSuite,帮助开发者们快速构建生成式 AI 应用。PaLM API 将为开发者提供面向对轮交互而优化的模型,如内容生成与对话;也能为开发者提供摘要、分类等多种任务的通用模型。工具 MakerSuite 则能帮助开发者快速、轻松地构建
93、和调整自定义模型,在浏览器中就能快速测试和迭代调整后的模型。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。23 科技 科技 PaLM 2 赋能超赋能超 25 种功能和产品的升级,包括办公套件、聊天机器人以及企业级种功能和产品的升级,包括办公套件、聊天机器人以及企业级 AI 平台。平台。在 PaLM 2 的加持下,Workspace 推出的 AIGC 工具包 Duet AI,其中包含 Google Docs 和Gmail 中的智能写作工具、Google Slides 中的文本生成图像、演讲备注以及 Google Meet的会议摘要生成等功能。升级版 Bard 不仅将支持图文多模态,
94、还将接入网络以实时网页搜索;同时,大量 Bard+tools 的组合将推出,Bard 有望深度融合到 Google 所提供的原有工具中。ToB 应用方面,Vertex AI 集合了谷歌研发的基础模型,用户可按需调用模型并对模型的参数权重进行微调;此外,Vertex AI 还能够根据内部数据建立企业版本的搜索引擎。英伟达:英伟达:AI 时代的芯片领路者时代的芯片领路者 发展历程:英伟达的二十年辉煌史发展历程:英伟达的二十年辉煌史 英伟达成立于 1993 年,是全球最大的 GPU 供应商,也是 AI 时代的芯片领路者。上市初期公司主要关注 PC 图形业务,与 PC 出货量具备高度相关性,主要以 O
95、EM 的销售模式。后续随着智能手机、平板电脑等消费电子的应用出现,公司敏锐捕捉到终端需求的变化,将业务重心向高端游戏显卡市场过渡。按照过往经验,英伟达基本每 1-2 年更新一次游戏GPU 架构,凭借强大的性能和生态优势迅速提升在全球独立 GPU 市场的市占率,近几年均保持在 70%以上的份额。进入 2018 年数字货币价格大幅下跌,数据中心开始承接公司新增长点,2020 年该业务营收增速超过 120%。此外,英伟达持续以 CUDA 为核心构建护城河,结合 CPU+GPU+DPU 三大硬件,形成统一的生态闭环,且在各细分领域形成全套解决方案。第一阶段(第一阶段(1992-2015):从图形芯片到
96、游戏显卡,确定主流赛道形成稳定现金流):从图形芯片到游戏显卡,确定主流赛道形成稳定现金流 持续推动业务升级,战略核心转移至高端游戏卡领域。持续推动业务升级,战略核心转移至高端游戏卡领域。在 GPU 推出初期,以 OEM 形式销售显卡是公司重要的收入来源之一,市场终端应用以 PC 为主,笔记本及平板的普及度尚低,英伟达的产品与 PC 出货存在较高程度的绑定。随着半导体行业发展,终端应用趋于多元化,PC 市场热度从 2012 年起开始出现明显下降。此外,随着集成显卡性能的提升,独立桌面显卡出货情况也开始出现衰退。在此市场环境下,英伟达将战略核心转移至高端游戏卡领域。在 2010-2015 年在全球
97、 PC 市场逐步倒退的情况下,英伟达游戏显卡出货量5 年实现 9%的年复合增长,销售均价/收入分别呈现 11%/21%的年复合增长。2019 年公司游戏业务已经为其贡献了过半营收,而 OEM/IP 业务收入占比下降至仅 6%。第二阶段(第二阶段(2016-2021):构建通用计算生态,数据中心业务实现爆发式增长):构建通用计算生态,数据中心业务实现爆发式增长 推出革命性架构推出革命性架构 CUDA,进入发展高速期。,进入发展高速期。2006 年英伟达研发出了能够让 GPU 计算变得通用化的 CUDA(Compute Unified Device Architecture)技术,运用 GPU 并
98、行处理能力来应对复杂的计算,次年公司就在图形市场取得飞跃式增长,同时 Tesla GPU 的推出让英伟达成功进入通用计算时代。经过二十多年的发展,公司已形成包括:面向 PC 和笔记本的 GeForce 系列,面向工作站的 Quadro 系列,面向超大型计算的 Tesla 系列和面对移动处理器的 Tegra 系列。图表图表22:Nvidia 数据中心业务收入及同比增长率数据中心业务收入及同比增长率 资料来源:NVIDIA 官网,华泰研究 0%20%40%60%80%100%120%140%160%02040608002000192
99、02020212022(亿美元)数据中心业务收入同比增长率 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。24 科技 科技 第三阶段(第三阶段(2022-):):AI 加持下,游戏、数据中心、自动驾驶三驾马车助力公司迈向千亿加持下,游戏、数据中心、自动驾驶三驾马车助力公司迈向千亿美金市场美金市场 英伟达经过前期的路径选择已经逐步清晰了三条主要赛道,同时在人工智能飞速迭代的情况下,从元宇宙平台搭建到协助内容创作到 AI 时代的“台积电”定位,精准把握每次技术变革:1)游戏方面:)游戏方面:英伟达背靠强大的 GPU 实力不断在游戏行业进行创新,推出 DLSS、光线追踪等技术提高游戏体
100、验,并进一步推动云端游戏业务发展。23 年由于 PC 端出货减少短期内影响了游戏业务增长,但据彭博一致预期,未来 5 年游戏业务 CAGR 仍有望达到10%。2)数据中心方面:)数据中心方面:除了训练/推理芯片性能更新,英伟达更侧重于 AI 超级计算机的打造和对整个服务器产业链的赋能。其在 GTC2023 推出的 NVIDIA DGX 超级计算机,将成为大语言模型实现突破背后的引擎。3)自动驾驶方面,)自动驾驶方面,英伟达在硬件上推出了自动驾驶汽车的平台 DRIVE Hyperion、算力达每秒 254 TOPS 的系统级芯片 DRIVE Orin SoC、新一代集中式车载计算平台 DRIVE
101、 Thor。22 年秋季 GTC 大会公布的中央计算引擎 Drive Thor 芯片由 Grace CPU、Hopper GPU 和下一代 GPU 组成,可提供 2000TOPS 算力,预计将在 25 年搭载于极氪。软件方面则推出了操作系统 DRIVE OS、AI 辅助驾驶平台 DRIVE Chauffeur、可实现对话式 AI 等智能服务的 DRIVE Concierge 等。过去 5 年汽车业务 CAGR 为 10%,仅占 FY23 收入的3%,但未来会随着产品逐渐落地而稳步提升。黄仁勋在 22 年 9 月的 Computex 大会上预计未来 6 年,将能够创造 110 亿美元营收价值。团
102、队:灵魂人物引导产业变革,数次收购完善业务版图团队:灵魂人物引导产业变革,数次收购完善业务版图 灵魂人物带领数次决策,英伟达引导产业变革。灵魂人物带领数次决策,英伟达引导产业变革。英伟达由黄仁勋与 Chris Malachowsky、Curtis Priem 于 1993 年 4 月共同创立,创业初期仅是数十家 GPU 制造商中的一员。但凭借黄仁勋非凡的见识和魄力,从 1999 年大规模裁员后发布世界首款 GPU 拿下大客户微软,到 2006 年推出 CUDA 技术,到 2012 年宣布计算卡与游戏卡分离成为与 AMD 竞争转折点,英伟达引领了显卡行业的每一次重大变革,成为占据独立显卡 80%
103、以上份额的巨头。英伟达不断通过收购完善业务版图。英伟达不断通过收购完善业务版图。英伟达早期的竞争对手 3dfx 在 2000 年被英伟达收购,3dfx 是 20 世纪 90 年代显卡芯片的市场领导者,主营业务包括显卡以及 3D 芯片,在2000 年时因为在一场与 NVIDIA 的官司中败诉而被 NVIDIA 仅仅以 7000 万美元和 100 万美元的股票收购,并在 2002 年年底破产。2019 年,英伟达宣布成功收购以色列芯片制造厂商 Mellanox,进一步加强对数据中心的布局,加速 HPC 和 AI 芯片的发展。另一具有代表性的案例是最后由于监管问题以失败告终的 2020 英伟达收购
104、ARM 事件,如若达成或将打通 ARM CPU 的庞大生态系统,由此也可以看出英伟达利用收购不断扩大商业版图,营造完整生态的动机。图表图表23:NVIDIA 收购公司一览收购公司一览 收购公司收购公司 年份年份 被收购公司简介被收购公司简介 3dfx 2000 显卡技术先驱 Media Q 2003 无线领域图形和多媒体技术的领导者 Uli Electronics 2005 核心逻辑技术开发商 Hybrid Graphics 2006 手持设备嵌入式 2D 和 3D 图形软件开发商 Portal Player 2007 个人媒体播放器半导体、固件及软件供应商 Mental Images 200
105、8 视觉渲染软件公司 AGEIA 2008 游戏物理技术开发商 Portland Group 2013 加速计算开发者工具提供商 Mellanox 2020 高性能互联技术领域龙头 Excelero 2022 存储方案提供商 资料来源:英伟达官网,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。25 科技 科技 商业模式:深度绑定台积电走商业模式:深度绑定台积电走 OEM 模式,轻装上阵重视研发投入模式,轻装上阵重视研发投入 深度绑定台积电,外包制造环节轻资产专注研发。深度绑定台积电,外包制造环节轻资产专注研发。1998 年,公司与台积电正式建立策略联盟伙伴关系。从一开始
106、,黄仁勋就致力于使英伟达成为一家无晶圆厂的芯片公司,通过将制造芯片费用外包以降低资本支出。OEM 模式虽然令投资者担忧生产外包的风险,但另一面英伟达将腾出的资金用于研发,逐渐建立起了高技术壁垒。自上市以来,英伟达研发投入绝对值基本呈现持续增长,单季度研发费用率平均值超 20%,2022 年公司研发投入达 73 亿美元。公司研发投入基本上全部用于 GPU 产品,长期研发投入与积累也使公司产品技术壁垒及竞争力得以充分提升。拓展云服务商业模式,将与企业、云厂商实现互惠共赢。在硬件制造的基础上,英伟达近拓展云服务商业模式,将与企业、云厂商实现互惠共赢。在硬件制造的基础上,英伟达近期还推出了期还推出了
107、NVIDIA AI Foundations,定位为“超算云服务+模型代工厂”,用于企业构建自定义语言模型和生成式 AI。NVIDIA AI Foundations 包括语言、视觉和生物学模型构建服务,分别名为 Nemo、Picasso 和 BioNemo,使用企业专有数据进行训练,用于处理特定领域的任务。我们认为超算云服务我们认为超算云服务+模型代工厂的商业模式是英伟达作为芯片送水人在模型代工厂的商业模式是英伟达作为芯片送水人在大模型时代的商业模式的自然延伸。大模型时代的商业模式的自然延伸。图表图表24:NVIDIA AI Foundations 服务与基础模型服务与基础模型 图表图表25:N
108、VIDIA Picasso 输入文本,输出图片、视频、输入文本,输出图片、视频、3D 模型模型 资料来源:2023 年 GTC 大会,华泰研究 资料来源:2023 年 GTC 大会,华泰研究 硬件迭代:训练硬件迭代:训练/推理芯片性能参数持续领先对手推理芯片性能参数持续领先对手 芯片性能优势优于竞争对手,在推理芯片方面将继续扩大优势。芯片性能优势优于竞争对手,在推理芯片方面将继续扩大优势。英伟达通常 1-2 年左右更新一次架构,2015 年以来经历了 Pascal、Volta、Turing、Ampere 和 Hopper 时期,其制程也从 16nm 快速推进到 7nm 和 4nm,预计下一代
109、Blackwell 架构 GPU 将延续与台积电合作选用 3nm 工艺。为了加速在混合精度计算、光线追踪领域的发展,英伟达在 Volta 架构引入 Tensor Core 来加速 AI 处理,而在 Turing 架构上加入 RT Core 来实现光线追踪的混合渲染。从性能对比来看,英伟达在 22 年初推出的 H100 在 AI 性能方面速度比 A100提升 9 倍,在大型语言模型上推理速度高 30 倍,在部分性能上优于 21 年 12 月 AMD 推出的高端 GPU MI250,在训练芯片具备较强的话语权。而在推理方面,尽管算力要求比训练端更低,市场需求更大也更为细分,英伟达面对的竞争更激烈,
110、但公司的推理侧解决方案更具备通用性、低延时、低功耗。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。26 科技 科技 图表图表26:英伟达与英伟达与 AMD 产品对比产品对比 资料来源:英伟达官网,华泰研究 软件:软件:CUDA 构建完整生态,构建完整生态,CUDA-X AI 结构拉开差距结构拉开差距 CUDA 是一种将 GPU 作为数据并行计算设备的软硬件体系,不需要借助图形学 API,而是采用了比较容易掌握的类 C 语言进行开发,开发人员能够利用熟悉的 C 语言比较平稳地从 CPU 过渡到 GPU 编程。与以往的 GPU 相比,支持 CUDA 的 GPU 在架构上有了显著的改进
111、:1)采用了统一处理架构,可以更加有效地利用过去分布在顶点着色器和像素着色器的计算资源;2)引入了片内共享存储器。两项改进使得 CUDA 架构更加适用于通用计算,加上 2008 年后苹果、AMD、和 IBM 推出的 OpenCL 开源标准,GPGPU 在通用计算领域迅速发展。英伟达在 CUDA 上的战略眼光及持续坚持,是如今形成软硬集合生态的最核心壁垒:1)易于编程与性能提升:CUDA 包含 CUDA 指令集架构(ISA)以及 GPU 内部的并行计算引擎,采用通用并行计算架构,使 GPU 能够解决复杂计算问题,相较 AMD 采取的通用OpenCL 平台而言,并行计算能力可提高 10-200 倍
112、不等;2)不断丰富的生态系统:英伟达通过十余年迭代扩充已形成丰富的函数库、API 指令、工具链、应用程序等,对开发者友好程度更高。在 CUDA 基础上英伟达进一步推出 CUDA-X AI 软件加速库,提供对深度学习、机器学习和高性能计算的优化功能,进一步拉开与竞争对手在 AI 时代的差距。图表图表27:CUDA及及 CUDA-X AI 生态系统生态系统 资料来源:英伟达官网,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。27 科技 科技 Meta:AI 和元宇宙双轮并驱和元宇宙双轮并驱 发展历程:全球最大社交媒体巨头拥抱元宇宙和发展历程:全球最大社交媒体巨头拥抱元宇宙和
113、 AIGC Meta 是全球社交网络龙头企业。是全球社交网络龙头企业。2004 年 Mark Zuckerberg 创立 Facebook,2021 年公司改名为 Meta Platforms,取意 Metaverse(元宇宙),体现了公司在虚拟世界中工作和娱乐的愿景。Meta 主要经营社交网络服务、虚拟现实、元宇宙等产品,旗下拥有 Facebook、Instagram 和 WhatsApp 等社交软件。在大模型领域,在大模型领域,Meta 奋起直追开源多个大模型。奋起直追开源多个大模型。2017 年,公司开源了深度学习框架PyTorch,是深度学习领域最常用的框架之一。2023 年 2 月,
114、Meta 推出针对研究社区的大型语言模型 LLaMA。4 月,Meta 发布机器视觉领域首个用于图像分割的通用大模型SAM 和其训练数据集 Segment Anything 1-Billion,将自然语言处理领域 prompt 范式延展到 CV 领域,为 CV 领域带来革命性技术突破。5 月,Meta 发布大规模多语言语音 MMS项目,将彻底改变语音技术,支持 1,107 种语言的语音转文字和文字转语音以及超过4,000 种语言的语言识别。同月,Meta 发布 650 亿参数语言模型 LIMA,无需 RLHF 就能对齐,根据其论文LIMA:Less Is More for Alignment(
115、Zhou et al,2023),在人类评估结果中甚至可与 GPT-4、Bard 和 DaVinci003 相媲美。图表图表28:Meta 发展历程发展历程 资料来源:Meta 官网,华泰研究 团队:团队:AI 人才汇聚,旨在创建人才汇聚,旨在创建 AIGC 顶级产品团队顶级产品团队 Meta 拥有一支经验丰富的核心团队。创始人、董事长兼首席执行官 Mark Zuckerberg,曾就读于哈佛大学,2004 年创立了 Facebook。首席运营官 Javier Olivan,持有斯坦福大学工商管理硕士学位和纳瓦拉大学电气和工业工程硕士学位,在加入公司之前曾担任西门子移动的产品经理。首席技术官
116、Andrew Bosworth,毕业于哈佛大学,曾任微软 Visio 开发人员,2017 年创建了公司的 AR/VR 组织,领导公司发展 AR、VR、AI 和消费者硬件等。Meta Al 是是 Meta 旗下的人工智能实验室。旗下的人工智能实验室。2013 年,深度学习教授和图灵奖得主 Yann LeCun 创建 FAIR,其最初目标是研究数据科学、机器学习和人工智能。2014 年,统计学先驱 Vladimir Vapnik 加入 FAIR。2018 年,IBM 大数据集团前首席技术官 Jrme Pesenti 担任 FAIR 总裁一职。2021 年,FAIR 更名为 Meta Al。2022
117、 年,Meta AI 在两周内预测了 6 亿个潜在蛋白质的 3D 形状。2023 年,Zuckerberg 宣布将成立专注 AIGC 的顶级产品团队,由负责 AI 和机器学习的副总裁 Ahmad Al-Dahle 领导,队内共有数十名成员,汇聚了过去分散在公司各地团队的 AI 人才。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。28 科技 科技 图表图表29:Meta 核心成员和核心成员和 Meta 人工智能实验室人工智能实验室 资料来源:Meta 官网,华泰研究 算力:全球最快算力:全球最快 AI 超级计算机超级计算机 AI RSC,推出自研,推出自研 AI 芯片芯片 MTIA
118、 AI RSC 是“全球最快是“全球最快 AI 超级计算机”之一。超级计算机”之一。AI RSC(AI Research SuperCluster)是Meta 用于训练人工智能模型的 AI 超级计算机。2017 年,公司设计自研第一代算力设施,在单个集群中拥有 2.2 万个英伟达 V100 Tensor Core GPU,每天可执行 35,000 个训练任务。2020 年,公司决定加速算力增长的最佳方式是从头开始设计全新计算基础架构,以利用新的 GPU 和网络结构技术。公司希望新 AI 超算能够在 1 EB 字节大的数据集上训练具有超过一万亿个参数的模型,仅从规模上看,这相当于 36,000
119、年时长的高清晰度视频。2023 年 5 月,Meta 宣布已经完成了 RSC 的第二阶段扩建,使其成为世界上最快的 AI 超级计算机之一,其混合精度计算性能接近 5 exaflops。图表图表30:AI RSC 比比 Meta 当前基于当前基于 V100 的集群更快的集群更快 图表图表31:AI RSC 第一阶段架构第一阶段架构 资料来源:Meta 官网,华泰研究 资料来源:Meta 官网,华泰研究 Meta 推出自研推出自研 AI 芯片芯片 MTIA,入场大模型军备竞赛。,入场大模型军备竞赛。2020 年,Meta 设计了第一代 MTIA芯片,采用 7 纳米工艺,可以从其内部 128 MB
120、内存扩展到高达 128 GB,并且在 Meta 设计的基准测试中,它处理了低等和中等复杂度的 AI 模型,效率比 GPU 高。2023 年 5 月,Meta 首次推出 AI 定制芯片MTIA(Meta Training and Inference Accelerator),是加速 AI 训练和推理工作负载的芯片“家族”的一部分。MTIA 是一种将不同电路组合在一块板上的 ASIC 芯片,允许对其进行编程以并行执行一项或多项任务。框架:框架:PyTorch深度学习领域最受欢迎的框架之一深度学习领域最受欢迎的框架之一 PyTorch 是 Facebook 于 2017 年推出的一个基于 Pytho
121、n 的开源深度学习框架,具有灵活性、易用性和高性能,是深度学习领域最受欢迎的框架之一,在 GitHub 上获超 66,500 颗星。在 ML 领域的主要会议上提交工作成果的研究人员中,超过 80%使用了 PyTorch 框架。PyTorch 支持在 GPU 上进行高速计算,在训练时拥有更快的速度和更好的性能,从而能大规模提高研究效率。PyTorch 已成为亚马逊网络服务、微软 Azure 和 OpenAI 等众多公司和研究机构构建 AI 研究和产品的基础。2022 年,公司正式发布 PyTorch 2.0,它提供了相同的 eager mode 和用户体验,同时通过 pile 增加了一个编译模式
122、,在训练和推理过程中可以对模型进行加速,从而提供更佳的性能和对动态形状和分布式的支持。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。29 科技 科技 模型:布局生成式模型:布局生成式 AI,开源语言、视觉等大模型,开源语言、视觉等大模型 语言大模型语言大模型#1:LLAMA 百亿参数模型在大多数基准上胜过百亿参数模型在大多数基准上胜过 GPT-3。2023 年 2 月,Meta推出了 LLaMA,目前提供 7B、13B、33B、65B 四种参数规模,都至少经过 1T token 的训练。LLaMA-13B 在多数基准测试下(如常识推理、闭卷问答、阅读理解、偏见性等)优于 GPT-
123、3(175B),且可在单块 V100 GPU 上运行。LLaMA-65B 与目前 LLM 中最好的Chinchilla-70B 和 PaLM-540B 旗鼓相当。LLaMA 不作商用目的,免费供给研究人员,目前 Meta 在 GitHub 上提供了精简版 LLaMA。基于 LLaMa 衍生出多个开源模型,例如斯坦福的 Alpaca、伯克利的 Vicuna、Kaola 和ColossalChat,以及哈工大基于中文医学知识的华驼。加州大学伯克利分校计算机科学教授 Ion Stoica 表示,免费的人工智能模型现在在性能上与谷歌和 OpenAI 的专有模型“相当接近”,大多数软件开发商最终都会选择
124、使用免费模型。语言大模型语言大模型#2:LIMA 无需无需 RLHF 就能对齐,媲美就能对齐,媲美 GPT-4。2023 年 5 月,Meta 发布 650亿参数语言模型 LIMA,仅在 1,000 个精心挑选的样本上微调 LLaMa-65B 且无需 RLHF,就实现了与 GPT-4 和 Bard 相媲美的性能。语音大模型语音大模型#1:MMS 模型可识别模型可识别 1100+语言,旨在保护世界语种的多样性。语言,旨在保护世界语种的多样性。MMS 模型在2023 年 5 月推出。现有的语音识别模型覆盖约 100 种语言,仅为地球上已知的 7,000 多种语言的小部分,MMS 使用 wav2ve
125、c 2.0 的自监督学习,支持 1,107 种语言的语音转文字和文字转语音以及超过 4,000 种语言的语言识别。MMS 用圣经训练,与 OpenAI Whisper 相比,使用 MMS 数据训练的模型支持 11 倍以上的语言,且在 54 种语言上的平均错误率仅为一半。图表图表32:MMS 支持的语言示意图支持的语言示意图 图表图表33:MMS 错误率仅为错误率仅为 Whisper 数据集的一半数据集的一半 资料来源:Meta 官网,华泰研究 资料来源:Meta 官网,华泰研究 CV 大模型大模型#1:SAM 模型可“分割一切”,模型可“分割一切”,CV 领域迎来领域迎来 GPT-3 时刻。时
126、刻。2023 年 4 月,Meta 推出首个可“任意图像分割”的基础模型SAM(Segment Anything Model),它具有强大的一键抠图功能,能从照片或视频中对任意对象实现一键分割,且能够零样本迁移到其他任务,为 CV 领域开启了新的篇章。Meta 还发布了有史以来最大的分割数据集Segment Anything 1-Billion(SA-1B),拥有超过 11 亿个分割掩码,掩码具有高质量和多样性。CV 大模型大模型#2:DINOv2 视觉大模型完全自监督,无需微调。视觉大模型完全自监督,无需微调。2021 年 4 月,Meta 公开了DINO 算法,通过自监督学习,DINO 可
127、以从大量未标注的图像中提取视觉特征,这些特征对于各种下游计算机视觉任务非常有用,例如图像分类、物体检测和语义分割。2023年 4 月,Meta 开源 DINOv2 版本,相比较原始的 DINO 模型,DINOv2 能够对视频进行处理,生成比原始 DINO 方法更高质量的分割结果。模型除了具备图像的识别、分类、分割处理等图像特征提取功能外,还具有语义分割,完善了以图搜图功能。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。30 科技 科技 多模态模型多模态模型#1:ImageBind 用图像对齐六模态,旨在实现感官大一统。用图像对齐六模态,旨在实现感官大一统。2023 年 5 月,M
128、eta 开源 ImageBind 新模型,是一个像人类一样结合不同感官的新 AI 模型,能够同时从文本、图像/视频、音频、深度(3D)、热能(红外辐射)和惯性测量单元(IMU)等六种不同的模态中学习。ImageBind 可以使用文本、音频和图像的组合来搜索照片、视频、音频文件或文本消息。ImageBind 用于丰富的多媒体搜索、虚拟现实甚至机器人技术,可以和 Meta 内部的虚拟现实、混合现实和元宇宙等技术相结合。AWS:全球卓越的云服务平台发力:全球卓越的云服务平台发力 AIGC 市场市场 发展历程:全球领先的云服务平台强势入局发展历程:全球领先的云服务平台强势入局 AIGC 亚马逊成立于
129、1994 年,是目前全球最大的互联网线上零售商之一。AWS(Amazon Web Services)于 2016 年正式推出,是亚马逊公司旗下的子公司,向个人、企业和政府提供按需即用的云计算平台以及应用程序接口,并按照使用量计费。2002 年 7 月,亚马逊的“A Web Services”上线了首款 Web 服务。2006 年 3 月,AWS 推出了Amazon S3 云存储,随后于 2006 年 8 月推出了 EC2。AWS 四项技术创新助力四项技术创新助力 AIGC 发展。发展。2023 年 4 月,AWS 正式入局 AIGC,推出自有基础模型 Titan 和 AIGC 服务 Bedro
130、ck,以及 AI 编程助手 Amazon CodeWhisperer,并宣布基于自研推理和训练 AI 芯片的最新实例 Amazon EC2 Trn1n 和 Amazon EC2 Inf2 正式可用。图表图表34:AWS 发展历程发展历程 资料来源:AWS 官网,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。31 科技 科技 算力:提供具有成本效益的生成式算力:提供具有成本效益的生成式 Al 云基础设施云基础设施 Inferentia 是是 ML/DL 推理(推理(Inference)加速器。)加速器。2018 年 11 月,AWS 发布首款云端 AI芯片 Inferen
131、tia,旨在以极低成本交付高吞吐量、低延迟推理性能。2021 年 1 月,AWS 推出基于 AWS Inferentia 加速器的 Amazon EC2 Inf1 实例,与当前一代基于 GPU 的Amazon EC2 实例相比,吞吐量最高可提高 2.3 倍,每次推理的成本降低多达 70%。2023 年 4 月,AWS 推出配备 Amazon Inferentia2 芯片的 Amazon EC2 Inf2 实例。与第一代 AWS Inferentia 相比,Inferentia2 的吞吐量提高了 4 倍,延迟低至前者的 1/10。Trainium 是是 ML/DL 训练(训练(Training)
132、加速器。)加速器。2020 年 12 月,AWS 发布第二款定制的机器学习芯片 AWS Trainium,支持 TensorFlow、PyTorch 和 MXNet 等框架。2022 年 10月,AWS 推出 Amazon EC2 Trn1。基于 Trainium 的 EC2 Trn1 实例与基于 GPU 的同类实例相比,可节省高达 50%的训练成本。2023 年 4 月,AWS 推出配备 AWS Trainium 的Amazon EC2 Trn1n 实例,相比于 Trn1 网络带宽提升了 1 倍,从之前的 800GB 左右提升到 1.6TB,旨在为大型的网络密集型的模型训练提供使用基础。模型
133、:推出模型:推出 Titan 大模型及中立托管平台大模型及中立托管平台 Bedrock 2023 年 4 月,AWS 推出的自研语言大模型 Titan。Titan 系列模型分为两种,一种是用于内容生成的文本模型 Titan text,可以执行诸如撰写博客文章和电子邮件、总结文档和从数据库中提取信息等任务。另一种是可创建矢量嵌入的嵌入模型 Titan Embeddings,能够将文本输入(字词、短语甚至是大篇幅文章)翻译成包含语义的数字表达的大语言模型。中立托管平台中立托管平台 Amazon Bedrock 让让 AIGC 变得普惠。变得普惠。2023 年 4 月,AWS 推出 Amazon B
134、edrock,让企业级客户能快速、安全和高性价比地调用多种大模型构建自己的程序。区别于谷歌和微软已发布面向大众的产品,AWS 瞄准的是企业客户,并且期望作为一个“中立”的生成式 AI 大模型托管平台,不依赖于任何一家 AI 初创公司。借助 Bedrock,企业级客户能通过 API 调用来自不同提供商的 AI 模型,例如 AI21 Labs 的 Jurassic-2、Anthropic 的 Claude、Stability AI 的 Stable Diffusion 以及 AWS 自研模型 Titan。产品:免费向个人开放产品:免费向个人开放 AI 编程助手编程助手 Amazon CodeWis
135、perer AI 编程助手编程助手 Amazon CodeWhisperer 提高开发者效率。提高开发者效率。2022 年,AWS 推出 Amazon CodeWhisperer 预览版,这是一款 AI 编程助手,通过内嵌的基础模型,可以根据开发者用自然语言描述的注释和集成开发环境(IDE)中的既有代码实时生成代码建议,从而提升开发者的生产效率。2023 年 4 月,AWS 将 Amazon CodeWhisperer 面向个人开发者免费开放,在适用 Python、Java、JavaScript、TypeScript 和 C#之外,新增支持 Go、Kotlin、Rust、PHP 和 SQL 等
136、十种开发语言。开发者可以通过在 VS Code、IntelliJ IDEA、Amazon Cloud9 等集成开发环境中的 Amazon Toolkit 插件访问 CodeWhisperer。国内大模型:百度、阿里、腾讯、华为、商汤、讯飞国内大模型:百度、阿里、腾讯、华为、商汤、讯飞 国内大模型训练企业中,百度具备先发优势,芯片层、框架层、模型层和应用层布局完善。阿里紧随其后,在芯片层、模型层、应用层均有布局,并宣布将旗下所有产品接入通义大模型。腾讯步调稳健,持续研发,在今年以来的大模型热潮中发声克制,并未宣布更多模型、应用进展。华为的大模型布局更偏向基础设施,在芯片层、框架层和模型层均有布局
137、,主要赋能 B 端客户。商汤的 AI 布局涵盖推理芯片、模型层和应用层,其以 CV 起家,应用层面不仅涵盖文字生成能力,同时包括多模态能力。讯飞的 AI布局主要涵盖模型层、应用层。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。32 科技 科技 图表图表35:国内科技公司国内科技公司 AI 布局布局 资料来源:各公司官网,华泰研究 百度:昆仑芯百度:昆仑芯+飞桨平台飞桨平台+文心大模型,构建广泛应用端生态文心大模型,构建广泛应用端生态 百度是当前唯一一家在芯片层、框架层、模型层和应用层都有领先产品布局的企业,四层百度是当前唯一一家在芯片层、框架层、模型层和应用层都有领先产品布局的企
138、业,四层架构相互协同优化,可以显著地降本增效。架构相互协同优化,可以显著地降本增效。在芯片层,百度昆仑芯科技已实现两代通用 AI芯片“昆仑”的量产及应用,为大模型落地提供强大算力支持。在框架层,“飞桨”是国内首个自主研发的产业级深度学习平台,集基础模型库、端到端开发套件和工具组件于一体,有效支持文心大模型高效、稳定训练。在模型层,“文心大模型”包括基础大模型、任务大模型、行业大模型三级体系,全面满足产业应用需求。在应用层,文心已大规模应用于百度自有业务的各类产品,并通过企业级平台“文心千帆”进一步推动生态构建。图表图表36:百度大模型的发展历程百度大模型的发展历程 资料来源:昆仑芯科技官网、百
139、度官网、华泰研究 团队:百度团队:百度 CTO 王海峰领衔,技术大牛带队王海峰领衔,技术大牛带队 百度百度 CTO 王海峰作为领头人推动百度的王海峰作为领头人推动百度的 AI 技术战略发展和生态构建。技术战略发展和生态构建。王海峰曾任职于微软,先后主持 Bing 语义搜索、微软小冰等项目;其于 2010 年加入百度,并在 2018 年升任百度 CTO,曾推出百度大脑、百度小度等一系列产品。其他带队的高管还包括百度集团副总裁兼深度学习技术及应用国家工程研究中心副主任吴甜、百度技术委员会主席吴华等。吴甜于 2006 年加入百度,目前负责百度 AI 技术平台和智能云 AI 产品,领衔研发为文心大模型
140、提供支撑的飞桨深度学习平台。吴华曾在百度带领团队推出世界首个互联网 NMT(神经网络机器翻译)系统,目前主要带领 NLP 大模型的技术推进。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。33 科技 科技 算力:两代自研通用算力:两代自研通用 AI 芯片“昆仑”支持大模型落地芯片“昆仑”支持大模型落地 百度旗下的芯片公司昆仑芯科技已实现两代通用百度旗下的芯片公司昆仑芯科技已实现两代通用 AI 芯片产品的量产及落地应用。芯片产品的量产及落地应用。昆仑芯1 代 AI 芯片于 2020 年量产,是国内唯一一款经历过互联网大规模核心算法考验的云端 AI芯片,当前已被广泛部署在互联网、工业制
141、造、智慧城市、智慧交通、科研等领域。昆仑芯 2 代 AI 芯片于 2021 年 8 月量产发布,是国内首款采用 GDDR6 显存的通用 AI 芯片,相比昆仑芯 1 代 AI 芯片性能提升 2-3 倍,且在通用性、易用性方面也有显著增强。目前,昆仑芯已在百度搜索等业务场景落地,也为大模型训练提供底层算力支撑。百度之外,昆仑芯还可为客户提供大模型定制服务,凭借强大算力为大模型落地提供全流程支持。框架:产业级深度学习平台“飞桨”为大模型构建提供有力支撑框架:产业级深度学习平台“飞桨”为大模型构建提供有力支撑 我国首个自主研发、功能丰富、开源开放的产业级深度学习平台飞桨(PaddlePaddle)是百
142、度大模型背后的有力支撑。飞桨以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件和丰富的工具组件于一体,有效支持文心大模型高效、稳定训练。截至目前,飞桨已和 22 家国内外硬件厂商完成了超过 30 种芯片的适配和联合优化,国产芯片适配第一。文心大模型:“基础文心大模型:“基础+任务任务+行业”大模型三层体系全面满足产业应用需求行业”大模型三层体系全面满足产业应用需求 百度文心大模型体系构建了文心大模型、工具与平台两层体系。在模型层,文心大模型包括基础大模型、任务大模型、行业大模型三级体系,打造大模型总量近 40 个,全面满足产业应用需求,涵盖电
143、力、燃气、金融、航天等领域。基础大模型针对特定任务预训练构建任务大模型,任务大模型结合垂直领域数据和知识进一步形成行业大模型,行业大模型则在应用场景的数据反哺基础大模型优化。在工具与平台层,大模型开发套件、文心 API以及提供全流程开箱即用大模型能力的 EasyDL 和 BML 开发平台,帮助全方位降低应用门槛。图表图表37:文心全景图文心全景图 资料来源:文心大模型官网,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。34 科技 科技 应用:大模型生态逐步构建,推动应用:大模型生态逐步构建,推动 AI 落地产业落地产业 文心大模型是目前国内预训练大模型应用端生态最好的大
144、模型之一。文心大模型是目前国内预训练大模型应用端生态最好的大模型之一。在百度自有业务中,文心已大规模应用于百度内部的各类产品,包含百度搜索、度小满金融、小度智能屏、百度地图等。例如,度小满的智能征信中台将文心 ERNIE 大模型应用在征信报告的解读上,能够将报告解读出 40 万维的风险变量,以更好地识别小微企业主的信贷风险。在百度业务之外,文心大模型联合国网、浦发、中国航天、人民网等企业推出了 11 个行业大模型,让大模型加速推动行业的智能化转型升级。文心一言生态逐步构建,加速生成式文心一言生态逐步构建,加速生成式 AI 应用需求落地。应用需求落地。2023 年 3 月,百度率先发布国内第一个
145、类 ChatGPT 生成式大语言模型“文心一言”,展示了其在文学创作、商业文案创作、数理逻辑推理、中文理解、多模态生成方面的能力,并宣布已有超过 650 家企业宣布接入文心一言生态。同月,百度智能云发布的一站式企业级大模型平台“文心千帆”,平台提供基于文心一言的数据管理、模型定制微调、推理云等服务,助力各行业的生成式 AI 应用需求落地,进一步推动文心一言生态构建。阿里巴巴:云上赋智,拥抱消费互联网阿里巴巴:云上赋智,拥抱消费互联网 AI 新时代新时代 阿里巴巴长期深耕于云计算、AI、大模型、边缘计算等复杂系统工程的开发,我们认为其已形成从基础设施层到应用层完整的服务体系与服务能力。阿里灵杰为
146、企业和开发者提供一站式云原生的阿里灵杰为企业和开发者提供一站式云原生的 AI 能力体系。能力体系。依托阿里云的云基础设施、大数据和 AI 工程能力、场景算法技术和行业经验,阿里巴巴通过阿里灵杰一站式帮助企业和开发者提升 AI 应用开发效率,促成 AI 在产业中的规模化落地,激发业务价值。根据阿里灵杰官网介绍,阿里灵杰目前已在金融、教育、交通、新零售、政务和司法 6 大领域提供完整的 AI 应用方案,同时以商品形式出售人脸人体、图像/视频生产、图像分割等 12 大类服务,满足各项应用场景需求。此外,阿里灵杰已推出大数据+AI 一体化平台,包含云原生大数据计算服务 MaxCompute、数据开发与
147、治理平台 DataWorks、机器学习平台 PAI等,有效帮助客户实现“开箱即用”,提升 AI 工程开发效率。图表图表38:阿里阿里 AI 结构结构 资料来源:阿里灵杰官网,华泰研究 通义大模型国内首个统一通义大模型国内首个统一 AI 底座模型。底座模型。2022 年 9 月,阿里巴巴发布通义大模型,该模型由统一底座层、通用模型层、行业模型层组成,是国内首个统一 AI 底座模型,而统一AI 模型可以充分利用多种感知模态的数据,从而获得更加丰富和准确的信息,有效解决了传统大模型通用性和易用性欠缺的问题。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。35 科技 科技 1)统一底座层:
148、)统一底座层:通义统一底座中的 M6-OFA 模型,在不引入新增结构的情况下,可同时处理图像描述、视觉定位、文生图、视觉蕴含、文档摘要等 10 余项单模态和跨模态任务。2)通用模型层:)通用模型层:覆盖自然语言处理、多模态、计算机视觉。包括 NLP 模型通义AliceMind,多模态模型通义-M6,CV 模型通义-CV 三大模型。2023 年 4 月 7 日,阿里巴巴推出大规模语言模型通义千问,进一步丰富阿里巴巴在通用模型层的产品形态。3)行业模型层:)行业模型层:深入电商、医疗、法律、金融、娱乐等行业,通用与专业领域大小模型协同,让通义大模型系列可兼顾性能最优化与低成本落地。图表图表39:阿
149、里通义大模型结构阿里通义大模型结构 资料来源:2023 阿里云峰会,华泰研究 M6 大模型为超大规模跨模态预训练模型(参数大模型为超大规模跨模态预训练模型(参数 10 万亿万亿+),提供语言理解、图像处理、),提供语言理解、图像处理、知识表征等智能服务。知识表征等智能服务。根据 M6 大模型官网介绍,M6 以预训练模型的形式输出泛化能力,下游仅需提供场景化数据进行优化调整,即可快速产出符合自身行业特点的精准模型,具备“高精度”、“低门槛”、“多模态”三大特点,有效降低了 AI 使用门槛,推动各行业 AI技术的落地和普及,已在电商、智能制造、金融等行业有丰富落地应用。图表图表40:M6 大模型应
150、用场景大模型应用场景 资料来源:阿里云官网,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。36 科技 科技 多元应用场景已初步落地。多元应用场景已初步落地。根据阿里云官网介绍,M6 大模型具有强大的图像生成能力和创造力,例如在服装设计模型中,模型可以根据用户输入的款式要求,如“翻领 polo 简约开衫上衣”,快速完成服装的款式设计并生成白底图。在推荐理由生成功能模型中,M6 模型可以捕捉到图片中的主要特征并转换成文本表述,如在提取商品主图中的商品特点信息后,可自动展开扩写为一段流畅自然的商品推荐理由。除此之外,模型还包括视觉问答、图文检索等功能,其技术优势包括:一致性强
151、(生成图像和文本保持一致)、清晰度高(细节逼真、纹理丰富)、多样性高(能够针对一个文本描述产出不同的图片)等。以电商场景为例,M6 大模型能够协助图文营销等部分基础工作,帮助商户降本增效。M6 大模型已积累丰富用户案例,如每平每屋、斑马智行、支付宝等。大模型已积累丰富用户案例,如每平每屋、斑马智行、支付宝等。根据 M6 大模型官网,M6 大模型与家居家装平台每平每屋合作,基于自身的多模态特征提取能力和模型中存储的丰富电商领域知识,为每平每屋业务提供了优质的家装类商品展示。在引入 M6 产出内容封面 embedding 后,线上精排场景取得了 pctcvr2.6%的提升。此外,专注于专业研发智能
152、汽车操作系统底层基础软件技术的斑马智行算法团队使用 M6 的表征学习能力帮助推进语视对话模型在自动驾驶场景实现应用,语视对话模型在评测上实现 5%以上的绝对值提升,有效优化了自动驾驶体验。图表图表41:M6 大模型用户案例大模型用户案例 资料来源:阿里云官网,华泰研究 2023 年 4 月 11 日,张勇(阿里巴巴集团董事会主席兼 CEO,阿里云智能集团 CEO)在2023 年阿里云峰会上指出,未来阿里巴巴所有产品都将接入大模型,进行全面升级,使其智能化水平达到全新高度。我们认为阿里巴巴丰富的消费互联网业务布局使其在 AI 大模型领域的投入具备长期的赋能空间,我们期待数据的持续积累与模型训练效
153、果形成良性循环,并使得阿里巴巴在迈出早期技术和基础设施投资期后,在利润端收获果实。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。37 科技 科技 图表图表42:阿里巴巴所有产品未来将接入通义千问大模型阿里巴巴所有产品未来将接入通义千问大模型 资料来源:2023 阿里云峰会,华泰研究 腾讯:大模型赋能长尾商家内容自制,提升整体创意和投放效率腾讯:大模型赋能长尾商家内容自制,提升整体创意和投放效率 腾讯以太极平台为底层,借力混元 AI 和广告两大模型,推出 4 大广告系统,覆盖广告内容理解、智能制作审核、广告推荐模型等环节,其他方案包括视频自动生成,模型定制化和动态投放等。根据腾讯广
154、告公众号,在 DCO 系统加持下,广告曝光改善 5%,流水和GMV 分别提升 10%和 9%。我们认为,未来腾讯或推出更多 AIGC 应用,视频号、朋友圈、小程序等都将受益于效率改善,或迎来更多提价空间。技术分析:腾讯广告大模型的产品构架技术分析:腾讯广告大模型的产品构架 一、以“太极机器学习平台”为底层技术,打造“混元一、以“太极机器学习平台”为底层技术,打造“混元AI大模型”大模型”+“广告大模型”“广告大模型”腾讯广告大模型的基本构架:腾讯广告大模型的基本构架:腾讯以“太极机器学习平台”为底层技术依托,打造“混元AI大模型”和“广告大模型”两种具备不同功能的千亿参数模型,前者侧重广告内容
155、理解,后者侧重平台运算效率。如何理解“混元如何理解“混元AI大模型”和“广告大模型”的区别和分工?大模型”和“广告大模型”的区别和分工?从系统处理的时间先后顺序看,混元AI大模型先助力系统深度理解广告内容,然后广告大模型进行推荐,进行广告定向筛选,提升广告和用户的匹配准确率。从大模型基本构架看,这两者均依靠“太极机器学习平台”作为底层技术依托。从计算能力看,“混元AI大模型”的多模态理解能力,有效加深推荐系统对广告内容的理解,提高用户体验以及广告转化效果;“广告大模型”是广告系统运算能力的关键,在更短时间内实现更加高效精准的广告推荐,可有效提升数据运算的精度、维度与速度。从参数看,单模型推理参
156、数达千亿级别,浮点数计算量最高每秒超过10亿次。图表图表43:腾讯以“太极”为底层技术,依托“混元腾讯以“太极”为底层技术,依托“混元 AI+广告大模型”赋能广告匹配广告大模型”赋能广告匹配 资料来源:腾讯广告公众号,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。38 科技 科技 二、混元大模型赋能广告制作环节二、混元大模型赋能广告制作环节 太极机器学习平台:针对“大模型太极机器学习平台:针对“大模型+高访问压力”自研搭建,支撑增设更多服务器和高算高访问压力”自研搭建,支撑增设更多服务器和高算力需求模型力需求模型。在大模型场景中,由于广告素材呈多倍数增长,内容对广告平台
157、的承载和计算能力提出更高要求。太极机器学习平台技术层面已达业内顶尖水准,可支持 10TB 级模型训练,以及 TB 级模型推理和分钟级模型发布上线,使其在模型训练、推理等方面的性能达到行业领先水准。混元大模型基于太极平台的加速效果达到业界平均水平的混元大模型基于太极平台的加速效果达到业界平均水平的 3.7x。太极计算机学习平台采用先进的分布式参数服务器架构,该架构的优势在于协调模型参数存储和计算两项任务分布式运行,以便增设更多服务器,支持算力需求更高的模型训练。同时,太极机器学习平台还能够调用超大模型提供在线推理服务。太极机器学习平台在模型训练加速能力亦较为突出,以混元大模型的训练为例,基于太极
158、的加速效果是业界平均水平的 3.7 倍。图表图表44:太极机器学习平台逻辑框架太极机器学习平台逻辑框架 资料来源:腾讯官网,华泰研究 腾讯混元腾讯混元AI大模型:四大技术平台。大模型:四大技术平台。以混元大模型为底座,腾讯细分研发出四大技术平台,分别为“巨阙”系统主攻广告内容理解、“乾坤”聚焦广告智能创作、“神针”侧重广告智能审核、“天印”主打广告指纹系统。混元混元AI大模型能够自动将广告文案生成视频。大模型能够自动将广告文案生成视频。目前混元AI大模型已能够实现广告智能制作,即通过AIGC自动将广告文案生成视频,大大地提高了系统的理解能力、行业特征的洞察力以及文案创意的生成效率,从而有效降低
159、了广告视频制作的成本。图表图表45:腾讯混元大模型具有较强的内容“一键生成”能力腾讯混元大模型具有较强的内容“一键生成”能力 功能功能 表现形式表现形式 图生视频 可以将静态的图片自动生成不同样式的视频广告 文案助手 可以为广告自动生成更恰当的标题,提升广告的效果 文生视频 未来只需要提供一句广告文案,就可以自动生成与之匹配的视频 资料来源:腾讯云开发者公众号,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。39 科技 科技 图表图表46:腾讯混元腾讯混元 AI 大模型:四大技术平台支持广告各环节效率提升大模型:四大技术平台支持广告各环节效率提升 资料来源:腾讯云开发者公
160、众号,华泰研究 三、精排大模型助力提升广告主三、精排大模型助力提升广告主15%GMV 腾讯大模型在广告中的实用效果:腾讯大模型在广告中的实用效果:在广告大模型的帮助下,腾讯广告的整体投放水平累计提升20%以上。例如精排的单模型推理模型参数量高达千亿,经过序列化处理可达数百GB,其浮点计算能力也能够在10亿次以内快速完成,各项算法评价指标相较于百亿规模小模型均提升明显。目前,精排大模型能短时间内在太极平台上完成计算、提供可靠的广告匹配结果。腾讯广告精排大模型:“高算力腾讯广告精排大模型:“高算力+强推理”助力广告高效匹配强推理”助力广告高效匹配 何为精排?何为精排?精排即为精确排序,在广告计算模
161、型中,用户看到的广告先后顺序,涉及到精确排序环节。精排环节应用大模型分析后,将会获得显著的分析和匹配效果改善,尤其是涉及长尾广告的分析和匹配。换而言之,用户可以看到更加符合自身兴趣的广告,广告主获得更高的转化率。腾讯的广告精排大模型,支撑了千亿的特征规模,模型体量达到TB级,各项算法指标相对于原来的模型,都有显著提升。上线后的评估表明,用户看到的广告与自己的相关性更高,广告主获得的用户生命周期总价值(LTV)也明显提高。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。40 科技 科技 图表图表47:精排大模型“千人千面”:精排环节应用大模型分析后,分析和匹配效果显著改善(尤其是长尾
162、广精排大模型“千人千面”:精排环节应用大模型分析后,分析和匹配效果显著改善(尤其是长尾广告)。用户可以看到更加符合自身兴趣的广告,广告主获得更高的转化率。告)。用户可以看到更加符合自身兴趣的广告,广告主获得更高的转化率。资料来源:腾讯云开发者公众号,华泰研究 精排大模型赋能下,广告主或可期待精排大模型赋能下,广告主或可期待 ROI的大幅抬升的大幅抬升。相比百亿规模小模型算法,腾讯广告的精排大模型平均为广告主带来15%的 GMV 提升(截至22年6月),也初步验证了大模型的商业化潜力。未来,随着大模型平台系统和算法的持续升级,也会逐步向召回、粗排等其他环节辐射,不断优化投放效果实现高质匹配。大模
163、型如何更精确地分析腾讯视频素材、提升推荐精准度大模型如何更精确地分析腾讯视频素材、提升推荐精准度?腾讯视频号通过对海量视频打标签,让系统不仅能理解视频的尺寸、分辨率、大小、镜头数等物理特征,还能对播放场景、用户行为、内容等特征进行学习和训练,从而更好的理解视频素材,实现人群与视频素材的更精准匹配,加强视频类广告在粗排、精排等阶段的竞争力,最终实现效果的不断优化。图表图表48:腾讯广告系统技术矩阵腾讯广告系统技术矩阵 资料来源:腾讯广告公众号,华泰研究 起量ROIROI成本 稳定性理解运算综合分析高效匹配持续学习行业策略智能决策创意生成混元AI大模型太极广告大模型营销数据经营数据高效匹配持续学习
164、行业策略智能决策 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。41 科技 科技 华为:昇腾芯片华为:昇腾芯片+MindSpore+盘古大模型,盘古大模型,B 端应用场景落地可期端应用场景落地可期 领导者:华为云领导者:华为云 AI 首席科学家田奇首席科学家田奇 华为云华为云 AI 首席科学家田奇是盘古大模型团队的负责人。首席科学家田奇是盘古大模型团队的负责人。田奇曾于 2008 至 2009 年,从大学调至微软亚洲研究院多媒体计算组进行研究工作。2018 年,田奇加入华为担任首席科学家,负责华为云相关业务,华为云是目前国内云服务市占率最高的厂商。当前,田奇正带领团队推动盘古大模
165、型从科研创新走向产业应用,逐步构建大模型的应用生态。算力:以自研算力:以自研 AI 芯片昇腾作为根基,打造芯片昇腾作为根基,打造 AI 产业平台产业平台 华为昇腾芯片包括用于训练的算力最强 AI 芯片昇腾 910,以及用于推理的全栈全场景 AI芯片昇腾 310。2019 年 8 月推出的昇腾 910 算力超英伟达 Tesla V100 一倍,在同等功耗下拥有的算力资源达到了当时业内最佳水平的两倍。目前,“昇腾 AI”基础软硬件平台已成功孵化和适配了 30 多个主流大模型,为我国一半以上的原生大模型提供算力支撑。基于该平台,昇腾 AI 产业已与 20 多家硬件伙伴和 1100 多家软件伙伴建立了
166、合作关系,并共同推出了 2000 多个行业 AI 解决方案,参与其中的开发者数量突破 150 万。框架:深度学习框架框架:深度学习框架 MindSpore 提升模型开发效率提升模型开发效率 深度学习框架深度学习框架 MindSpore 从训练推理部署全流程支撑模型高效开发,是国内社区中最活从训练推理部署全流程支撑模型高效开发,是国内社区中最活跃、关注度最高、被应用最多的框架之一。跃、关注度最高、被应用最多的框架之一。匹配昇腾 AI 处理器,MindSpore 有效克服 AI计算的复杂性和算力的多样性挑战,打造面向端、边、云的全场景 AI 基础设施方案,让芯片的强大算力能够以最高效的方式被开发者
167、们利用。面向大模型开发场景,MindSpore 提供系列工具及套件,发挥软硬件综合优势,从训练推理部署全流程支撑模型高效开发。同时,MindSpore 可兼容第三方 AI 框架生态,以实现模型的快速迁移。盘古大模型:赋能千行百业的三阶段体系盘古大模型:赋能千行百业的三阶段体系 华为云盘古大模型于 2021 年 4 月正式发布,到 2022 年聚焦行业应用落地,已经基于一站式 AI 开发平台 ModelArts,发展出包括基础大模型(L0)、行业大模型(L1)、行业细分场景模型(L2)三大阶段的成熟体系,让 AI 开发由作坊式转变为工业化开发的新模式,赋能千行百业。具体来说,盘古大模型的三层体系
168、架构包含:1)L0 基础大模型:30 亿参数的 CV 大模型在业界首次实现模型按需抽取,千亿参数和 40TB 训练数据的 NLP 大模型在在 CLUE 榜单实现业界领先,科学计算大模型致力于解决各种科学问题、促进基础科学的发展;2)L1 行业大模型:涵盖矿山、气象、药物、分子、电力、海浪、金融等行业;3)L2 场景模型:包含金融 OCR、电力巡检、建筑能耗优化等场景。应用:行业大模型逐步落地,应用:行业大模型逐步落地,B 端场景应用可期端场景应用可期 盘古盘古 CV 大模型可以赋能分类、识别、检测等视觉场景。大模型可以赋能分类、识别、检测等视觉场景。华为已基于 CV 大模型推出矿山大模型、电力
169、大模型等行业大模型,推动相关工业领域安全高效作业。在华为与能源集团合作推出的盘古矿山大模型中,模型能够解决 AI 在煤矿行业落地难、门槛高等问题。例如,在煤矿主运场景中,AI 主运智能监测系统的异物识别准确率达 98%,实现全时段巡检,避免因漏检造成的安全事故;在作业场景中,掘进作业序列智能监测的动作规范识别准确率超过 95,保障井下作业安全。此外,盘古 CV 大模型还可应用在铁路轨道机车的缺陷检测中,识别机车中吊链、脱落、裂痕等潜在不安全因素,在郑州铁路段的 32000 多样本评测中,对缺陷和故障检测的准确度达 99%。盘古盘古 NLP 大模型可助力文档检索、智能大模型可助力文档检索、智能
170、ERP、小语种等内容理解和文本生成场景。、小语种等内容理解和文本生成场景。基于NLP 大模型,华为与合作伙伴开发了支持千亿参数的阿拉伯语 NLP 大模型,语义理解准确率达到 95%。此外,盘古 NLP 平台凭借突破性的零样本 AI 建模技术,可帮助金融机构降低 AI 建模成本,提升 10 到 1000 倍 AI 建模效率,目前已经在多家银行、保险、证券等金融机构的数字化客户经营场景落地,全面助力客户沟通、销售管理、客户洞察等场景的降本增效。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。42 科技 科技 盘古药物分子大模型可辅助医药研发,突破新药研发的“双十定律”。盘古药物分子大模
171、型可辅助医药研发,突破新药研发的“双十定律”。西安交通大学第一附属医院刘冰教授团队在抗生素研发工作中,采用大模型辅助药物设计,突破性地研发出超级抗菌药 Drug X,突破新药从研发到上市平均需 10 年时间和 10 亿美元投入的“双十定律”,将先导药的研发周期从数年缩短至一个月,且研发成本降低 70%。此外,药物分子大模型还可应用于 AI 药物分子筛选,使得成药性预测准确率比传统方式高 20%。新技术大幅减少了人力筛选的时间与成本,充分释放了科研人员的创新活力。图表图表49:通过华为云通过华为云 AI 辅助药物设计服务平台进行药物分子筛选辅助药物设计服务平台进行药物分子筛选 资料来源:华为云官
172、网,华泰研究 盘古气象大模型是全球首个天气预测精度超过传统方式的盘古气象大模型是全球首个天气预测精度超过传统方式的 AI 模型。模型。传统是通过数字分析的方法,精度位列世界第一的是欧洲气象中心。区别于传统的数字分析方法,气象大模型基于一种 3D 高分辨率的 AI 气象预报方法,可以在秒级的时间内完成全球未来 1 小时到 7天的天气预报,精度首次超过了欧洲气象中心的数字分析的方法,并且预测速度提升了 1万倍以上。在自然灾害里面,例如台风轨迹预测,盘古的精度相对于世界第一的欧洲气象中心的方法提升了 20%以上。商汤:商汤:SenseCore 大装置大装置+日日新大模型日日新大模型 算力:基于算力:
173、基于 AI 大装置大装置 SenseCore,以,以 AI 模型赋能四大业务模型赋能四大业务 商汤基于商汤基于 AI 大装置大装置 SenseCore 辅助自身业务开展。辅助自身业务开展。AI 大装置 SenseCore 打通了算力、算法和平台之间的连接与协同,构建成一整套端到端的架构体系;基于 AI 大装置SenseCore,商汤通过 22,000+商用 AI 模型,赋能智慧商业、智慧城市、智慧生活和智慧汽车四大业务。大装置 SenseCore 拥有约 2.7 万块 GPU,约 5 exaFLOPS 算力,提供包括算力服务(IaaS)、开发工具和深度学习平台(PaaS)以及模型部署及推理(M
174、aaS)在内的全栈式 AIaaS 服务。公司目前最大能够支持需要 4,000 张卡并行计算的千亿参数大模型训练,为 8 家外部大型客户提供大模型训练服务,客户涵盖互联网、游戏、商业银行,科研机构等多个领域。日日新大模型:构建面向日日新大模型:构建面向 AGI 的核心能力,驱动垂直行业降本增效的核心能力,驱动垂直行业降本增效 商汤是国内最早布局商汤是国内最早布局 AI 大模型的企业之一,已实现大模型的企业之一,已实现 CV、NLP、多模态等大模型的全面布、多模态等大模型的全面布局。局。2019 年已经发布了拥有 10 亿参数的图像大模型,2022 发布的视觉模型参数量达到320 亿,是全球最大的
175、通用视觉模型之一,能够实现高性能的目标检测、图像分割和多物体识别算法等功能。今年 3 月推出多模态大模型“书生 2.5”,具备图像描述、视觉问答、视觉推理、文字识别、文生图、文本检索视觉内容等功能,在国内处于领先地位。2023 年 4月,商汤在技术交流会中正式发布“日日新 SenseNova”大模型体系,实现 CV、NLP、多模态等大模型的全面布局,并展示了其问答、代码生成、2D/3D 数字人生成、3D 场景/物体生成等 AI 模型应用能力。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。43 科技 科技 1800 亿参数“商量”大模型赋能专业知识、代码生成、医疗等垂直场景。亿参数
176、“商量”大模型赋能专业知识、代码生成、医疗等垂直场景。商汤于技术交流会同时发布 1800 亿参数“商量”(SenseChat)语言大模型,主要能力包括:1)长文本理解:相比 ChatGPT,SenseChat 支持财务、法务等专业领域超长文本知识理解,能够基于用户上传的长文本 pdf 进行理解和对话。2)代码生成:Visual Studio Code 接入SenseChat 插件,根据用户指令直接生成代码,在 humaneval 测试集上,一次通过率为40.2%,据商汤表示该数据高于 Copilot;3)赋能行业:已落地新华医院“便捷就医服务”,辅助初步问诊、就医挂号建议等。此外,公司计划推出
177、面向行业客户的类 ChatGPT 对话机器人服务。应用:应用:MaaS 模式可能成为重要新趋势模式可能成为重要新趋势 商汤日日新大模型开放 API 体系包含自然语言生成 API、图片生成 API、视觉通用感知任务 API 和标注 API。此外,商汤还提供了数据标注、模型训练及微调等一系列 MaaS 服务。近期,我们注意到,英伟达,百度,商汤等企业都提出了类似 MaaS 的新商业模式,其核心是利用自己已经拥有的通用大模型,帮助企业以专有数据创建专有模型。其中,英伟达提供基于其文字、图像和生物医药模型的大模型训练服务 Al Foundations,百度推出文心千帆大模型平台,表示未来云计算商业模式
178、会变成 MaaS。拥有大模型的企业,从“卖算力”走向“卖模型”可能成为 AI 企业发展的一条新商业模式。科大讯飞:重磅发布星火大模型科大讯飞:重磅发布星火大模型+四大四大 AI 应用成果应用成果 科大讯飞在科大讯飞在 AI 认知智能领域已有十几年的积累,具备认知大模型“智能涌现”的源头核认知智能领域已有十几年的积累,具备认知大模型“智能涌现”的源头核心技术储备。心技术储备。14 年讯飞就推出讯飞超脑计划,明确提出要让机器像人一样具备“能理解、会思考”的能力;17 年讯飞智医助理在全球首次通过了国家执业医师资格考试,超过了96.3%参加考试的医生;19 年在斯坦福大学发起的国际著名 SQuAD
179、机器阅读理解比赛中,讯飞模型在英文阅读理解中首次超过了人类平均水平;22 年在艾伦研究院组织的OpenBookQA 科学常识推理比赛中,讯飞单模型首次超过了人类平均水平;22 年 1 月,讯飞正式宣布讯飞超脑 2030 计划,要让“懂知识、会学习、能进化”的通用人工智能技术,以机器人的实体形态或虚拟形态能够进入到每一个家庭;22 年 12 月,讯飞启动认知智能大模型的专项攻关;23 年年 5 月月 6 日,讯飞星火认知大模型正式发布,同时发布了日,讯飞星火认知大模型正式发布,同时发布了 4大大 AI 行业应用成果。行业应用成果。图表图表50:讯飞为认知大模型所做的源头核心技术储备讯飞为认知大模
180、型所做的源头核心技术储备 资料来源:科大讯飞官网、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。44 科技 科技 讯飞星火大模型在讯飞星火大模型在 AGI 核心能力上表现出色核心能力上表现出色 1)长文本生成:星火中文已经超过 ChatGPT 水平,英文能力接近并快速进步中;2)语言理解:星火在国内可测的现有系统中遥遥领先,跟 ChatGPT 相比还有细微的差别,且持续提升中;3)逻辑推理:讯飞星火大模型在常识、科学等推理方面表现较好;4)泛领域开放式知识问答:星火可以进行比较好的回答,在医学知识领域,甚至超越了 GPT-4 的能力;5)数学能力:在数学相关的 16 个
181、类别详细任务中,讯飞在国内可测的同类系统中遥遥领先,现已经超过了 ChatGPT;6)代码能力:起步阶段,将在 8 月 15 日的升级版本中实现突破;7)多模态输入和表达能力:预计下一代大模型发布。图表图表51:讯飞星火大模型六大核心能力讯飞星火大模型六大核心能力 资料来源:科大讯飞官网、华泰研究 针对星火大模型有待完善的功能,讯飞给出了明确的升级时间表针对星火大模型有待完善的功能,讯飞给出了明确的升级时间表 讯飞星火大模型当前仍有待提升的能力包括开放式问答(实时性问题)、多轮对话能力、代码能力、数学能力、多模态等能力。针对此,讯飞给出了非常明确的升级时间点。6 月9 日,突破开放式问答(接入
182、搜索引擎)、多轮对话能力再升级、数学能力再升级;8 月 15日,突破代码能力、多模态交互再升级;10 月 24 日,通用模型对标 ChatGPT(中文超越,英文相当)。发布四大行业应用成果,率先实现发布四大行业应用成果,率先实现 AI 产品化落地产品化落地 1)星火)星火+教育:教育:主要针对学习机 T20Pro/T20 发布了 AI 新功能(老功能升级),包括 AI 中英文作文批改、英语 AI 口语对话、初中数学 AI 同步精准学);2)星火)星火+办公办公:智能办公本 X2、智能录音笔(SR702)、讯飞听见、智能麦克风 M2 将具备会议纪要能力、语篇规整能力、一键成稿能力三大新功能;3)
183、星火)星火+汽车:汽车:大幅提升人机交互能力,并接入插件功能;4)星火)星火+数字员工数字员工:虚拟人智能交互机能力全面提升,推出新一代生成式 PRA。相关未上市公司相关未上市公司:智谱、:智谱、MiniMax、第四范式、聆心智能、澜舟科技、云、第四范式、聆心智能、澜舟科技、云知声、扩博智能知声、扩博智能 智谱华章(未上市)智谱华章(未上市)北京智谱华章科技有限公司是认知智能领跑者,持续打造高性能千亿级普惠大模型。2019年,公司成立,由清华大学计算机系知识工程实验室的技术成果转化而来,致力于打造新一代认知智能通用模型。公司合作研发了双语千亿级超大规模预训练模型 GLM-130B,并构建了高精
184、度通用知识图谱,形成数据与知识双轮驱动的认知引擎,基于此模型打造了ChatGLM。公司还推出了认知大模型平台 Bigmodel.ai,包括 CodeGeeX 和 CogView 等产品,提供智能 API 服务,链接物理世界的亿级用户、赋能元宇宙数字人、成为具身机器人的基座,赋予机器像人一样“思考”的能力。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。45 科技 科技 MiniMax(未上市)(未上市)MiniMax 是国内首家多模态 AI 大模型创业公司。2021 年,公司成立,致力于成为通用人工智能时代基础设施建设者和内容应用创造者。公司自研了整套端到端 AGI 引擎系统:底层
185、基础设施以极高效的并行计算能力支撑超大规模跨模型训练任务;文本、语音、视觉三个模态大模型算法能力均达到世界级领先水平;计算平台为通用模型提供推理优化能力,极大降低了 AIGC 产品研发门槛。公司首款 C 端产品 Glow 定位 AI 虚拟聊天社交软件,主打聊天、陪伴等情感功能。第四范式(未上市)第四范式(未上市)北京第四范式智能技术股份有限公司是中国领先的企业级 AI 解决方案提供商。2014 年,公司成立,依托自动化机器学习、迁移学习、环境学习和自动化强化学习等核心技术,研发端到端企业级人工智能解决方案。通过统一的基于平台的交付模型,降低了人工智能跨行业应用的门槛,使行业用户能够在其平台上实
186、现行业数据价值的最大化。产品广泛应用于金融、零售、制造业、能源电力、电信、医疗等领域。根据灼识咨询数据,在 2022 年以平台为中心的人工智能决策方面,公司国内市场份额排名第一。截至 2022 年底,公司拥有 104 名标杆用户(财富世界 500 强企业及公众上市公司)。聆心智能(未上市)聆心智能(未上市)北京聆心智能科技有限公司是大模型和对话系统的开发与应用领域的行业领先者。2021年公司成立,致力于打造可控、可配置、安全的超拟人大模型,通过简单设置即可构造一个有知识、有个性、有风格的类人智能体。公司孵化自清华大学计算机系,团队核心成员均来自于清华大学、卡内基梅隆大学和谷歌等国内外顶尖高校及
187、公司。2022 年,公司联合清华大学 CoAI 实验室共同发布开放域预训练对话模型 OPD,兼顾出色的闲聊能力与知识性,推动了中文对话领域的发展。同年,公司推出首个超拟人 AI 产品“AI 乌托邦”,允许用户快速定制 AI 角色。澜舟科技(未上市)澜舟科技(未上市)北京澜舟科技有限公司是业界领先的认知智能公司。2021 年公司成立,致力于以自然语言处理技术为基础,为全球企业提供新一代认知智能平台,助力企业数字化转型升级。同年,公司推出基于团队自研技术研发的大规模预训练语言模型“孟子预训练模型”,可处理多语言、多模态数据,同时支持多种文本理解和文本生成任务,能快速满足不同领域、不同应用场景的需求
188、。它基于 Transformer 架构,仅包含十亿参数量,基于数百 G 级别涵盖互联网网页、社区、新闻、电子商务、金融等领域的高质量语料训练。云知声(未上市)云知声(未上市)云知声智能科技股份有限公司是头部物联网 AI 服务提供商。2012 年,公司成立,以智能语音识别、自然语言理解和知识图谱等全栈 Al 技术为核心,打造云服务和 AI 芯片,输出PaaS 和 SaaS 平台服务,提供面向智慧物联、智慧医疗等场景的物联网智能化产品服务。公司精英云集,其研发团队占比 78%以上,主要核心成员来自盛大、IBM、华为、阿里和微软等国内外知名企业。2023 年,公司发布山海大模型,目标是年内通用能力比
189、肩ChatGPT,并在医疗、物联和教育等多个垂直领域能力超越 GPT4。扩博智能(未上市)扩博智能(未上市)上海扩博智能技术有限公司是专注于风电和零售场景的人工智能行业专家。2016 年,公司成立,基于机器学习、IoT、边缘计算和计算机视觉等技术,为客户提供端到端的智能服务,有效提升传统行业运营效率,加快数字化变革。公司瞄准风电和零售行业,提供智慧风电全自动风机叶片巡检产品和智慧零售线下执行产品。公司自成立以来已提交 130 多项知识产权申请,凭借自身对技术的专注和探索吸引了众多优秀人才,其研发工程团队硕博人才占比 70%以上,主要核心成员来自微软、谷歌、脸书、百度和华为等知名企业。免责声明和
190、披露以及分析师声明是报告的一部分,请务必一起阅读。46 科技 科技 算力:算力:AI 应用如何拉动需求变化应用如何拉动需求变化 随着 AI 应用的普及,以及以 ChatGPT 为代表的大模型的出现,AI 相关算力需求正成为高性能计算的主要增长点。当前,大模型最重要的特点是通过不断增加模型参数和训练的数据集的规模,来实现更高的预测精度和通用性。根据 OpenAI 统计,目前大模型训练所需算力的增速保持 3-4 个月/倍速度增长,远超摩尔定律 18-24 个月/倍。图表图表52:大模型对半导体需求增长快于摩尔定律大模型对半导体需求增长快于摩尔定律 资料来源:NVIDIA Ian Buck stat
191、ement(2018),华泰研究 根据微软 2020 年披露,其服务 OpenAI 的计算集群采用超过 1 万张 GPU。据微软官网,与进入 TOP500 榜单的超算相比,这一计算集群排名前五。我们假设该集群使用英伟达A100,经简略测算,在用于超算的 FP64 双精度下,其浮点计算能力约相当于我国最先进的超算中心太湖之光,是世界最大的超算中心 Frontier 的 9%。以目前火热的 ChatGPT 为例,ChatGPT 主要是由(1)预训练大模型如 GPT-3.5 大模型,(2)对该大模型进行基于人类反馈的强化学习(RLHF)训练而来。GPT-3.5 模型未公布细节,但是其前代 GPT-3
192、 拥有 1750 亿参数,数据集 499B tokens,训练数据量为 300B tokens。图表图表53:ChatGPT 是是 GPT-3.5+基于人类反馈的强化学习基于人类反馈的强化学习 注:GPT-3.5 的参数量、数据量参考 GPT-3 数据 资料来源:GPT-4 Technical Report(OpenAI,2023),Language Models are Few-Shot Learners(Brown et al.,2023),华泰研究 Moores Law2x/2yrs200000182
193、00202020202221001001,0001,00010,00010,000100,000100,0001,000,0001,000,00010,000,00010,000,000100,000,000100,000,0001,000,000,0001,000,000,00010,000,000,00010,000,000,000AlexNetVGG-19Seq2SeqResnetInceplionXceptionResNeXtDemseNet201ELMoMoCo ResNet50Wav2Vec 2.0TransformerGPT-1BERT
194、 LargeXLNetMegatronMicrosoft T-NLGGPT-3Megatron Turing NLG 530BTraining Compute(PetaFLOPS)Tramsformer275x/2yrsAI model25x/2yrs 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。47 科技 科技 大模型对训练大模型对训练/推理算力需求的测算推理算力需求的测算 我们认为 ChatGPT 对算力的需求主要包括三个方面:1)初次训练:初次训练:通过大量数据训练出一个复杂的神经网络模型,使其能够适应一系列下游任务,具备一定的泛化性、通用性。训练一个模型本质上是需要持续
195、训练,直到达到一个精确度水平。在一个模型被完全训练之后,可通过常规微调向其添加额外的层或额外的信息;2)常规微调:常规微调:训练不止一次,包括前期调制参数与后期常规微调;3)推理:)推理:将训练出的模型投入具体场景使用,即使用已有模型进行运算,输入新数据一次性获得正确结论。推理高度独立于训练。对于训练,硬件看起来是一样的,取决于模型的大小,而推理依赖于任务是什么。图表图表54:ChatGPT 训练训练+推理算力需求测算框架推理算力需求测算框架 资料来源:Wind,华泰研究 训练阶段:训练阶段:GPT3 算力训练算力训练 3640PFlops/s-day,根据测算训练,根据测算训练 30 天大约
196、需要天大约需要 1944 张张A100。目前的大语言模型大多基于 Transformer 结构,该架构由谷歌在 2017 年提出,摒弃了 CNN 和 RNN 的模型结构,完全基于注意力机制,并行程度高,模型训练速度快。ChatGPT 基于 GPT-3.5 模型,GPT-3.5 未公布细节,但其前代 GPT-3 拥有 1750 亿参数,数据集 499B tokens,训练数据量为 300B tokens。据 OpenAI 团队发表于 2020 年的论文Language Models are Few-Shot Learners,训练一次 1746 亿参数的 GPT-3 模型需要的算力约为 3640
197、 PFlop/s-day(即假设每秒计算一千万亿次,需要计算 3640 天)。大模型训练一次 GPU 的需求量可以用训练所需浮点运算次数除以单位 GPU 单位时间有效浮点运算次数得到,目前训练端 GPU 多采用英伟达 A100,考虑:1)A100 Tensor Core 采用张量算力 TF32 稠密峰值 156 TFLOPS;2)实际 GPU 吞吐量与模型策略、Batch size、训练天数等都有很强的相关性,参考文献及实际案例给予 40%有效算力比率,最终确定单位GPU 实际算力为 62.4 TFLOPS。根据Language Models are Few-Shot Learners论文中的
198、算力数据,在模型训练时长为 30 天的假设下,对应需要 1944 张 A100。图表图表55:模型训练模型训练 GPU 用量测算用量测算 资料来源:华泰研究 GPU 需求量=训练所需浮点运算次数单位 GPU 单位时间有效浮点预算次数=模型参数?1750 亿?训练集大小(300B)每单词训练所需浮点数(6)单位 GPU 单位时间有效浮点预算次数?需考虑并行训练/网络数据交换带来的峰值算力折损?免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。48 科技 科技 图表图表56:各个模型参数以及各个模型参数以及 A100 用量(换算量)用量(换算量)模型模型 总 计 算 量总 计 算 量(P
199、F-days)总 计 算 量总 计 算 量(flops)参数量参数量(百万个百万个)令牌数量令牌数量(十亿十亿)处理每参数和处理每参数和词汇所需执行词汇所需执行浮点运算数浮点运算数 一次更新参数一次更新参数所需矩阵乘法所需矩阵乘法运算次数运算次数 前向传播时处理每个激前向传播时处理每个激活参数和每个输入词汇活参数和每个输入词汇所需执行浮点计算次数所需执行浮点计算次数 处理每个词汇处理每个词汇时被激活的模时被激活的模型参数个数型参数个数 A100 用量用量(张张 30 天天)T5 模型模型 T5-Small 2.08E+00 1.80E+20 60 1000 3 3 1 0.5 1 T5-Bas
200、e 7.64E+00 6.60E+20 220 1000 3 3 1 0.5 4 T5-Large 2.67E+01 2.31E+21 770 1000 3 3 1 0.5 14 T5-3B 1.04E+02 9.00E+21 3000 1000 3 3 1 0.5 56 T5-11B 3.82E+02 3.30E+22 11000 1000 3 3 1 0.5 204 BERT 模型模型 BERT-Base 1.89E+00 1.64E+20 109 250 6 3 2 1 1 BERT-Large 6.16E+00 5.33E+20 355 250 6 3 2 1 3 RoBERTa-Ba
201、se 1.74E+01 1.50E+21 125 2000 6 3 2 1 9 RoBERTa-Large 4.93E+01 4.26E+21 355 2000 6 3 2 1 26 GPT 模型模型 GPT-3 Small 2.60E+00 2.25E+20 125 300 6 3 2 1 1 GPT-3 Medium 7.42E+00 6.41E+20 356 300 6 3 2 1 4 GPT-3 Large 1.58E+01 1.37E+21 760 300 6 3 2 1 8 GPT-3 XL 2.75E+01 2.38E+21 1320 300 6 3 2 1 14 GPT-3 2
202、.7B 5.52E+01 4.77E+21 2650 300 6 3 2 1 29 GPT-3 6.7B 1.39E+02 1.20E+22 6660 300 6 3 2 1 74 GPT-3 13B 2.68E+02 2.31E+22 12850 300 6 3 2 1 143 GPT-3 175B 3.64E+03 3.14E+23 174600 300 6 3 2 1 1,944 注:A100 用量计算假设条件为训练 30 天 资料来源:OpenAI、Tom B.Brown et al.Language Models are Few-Shot Learners(2020),华泰研究 微调
203、阶段:微调阶段:微调(Fine-tuning)是在训练大模型时常见的技术,通常用于在一个已经经过预训练的基础模型上通过人类反馈机制进行进一步的训练,以适应特定的任务或领域,主要优势在于:1)预训练使得模型具备了一定的通用语言理解和生成能力,但预训练模型通常不具备针对特定任务或领域的专门知识。通过微调,可以进一步调整模型的参数,以使其适应特定任务的要求。2)微调使用任务特定的数据集来进一步调整模型,使其能够更好地捕捉任务相关的信息。3)通过对少量参数的调整,可以减少过渡拟合的风险。由于微调通常只需要数小时或数天,且在相对较小的特定数据集训练,微调所需算力通常小于一次预训练算力 3640 PFlo
204、p/s-day。推理阶段:推理阶段:大模型推理的算力需求通常是在训练完成后的一个阶段,将已经训练好的模型应用于实际的任务和数据。由于推理算力需求直接和场景任务相关,我们参考 Fortune 杂志数据对 OpenAI 官网对话进行场景模拟,假设每次用户与 ChatGPT 互动产生的算力云服务成本约 0.01 美元,按照 SimilarWeb 统计 4 月全球访问量 17.6 亿次计算,则单月运营成本大概为 1760 万美元。根据 Lambda 数据训练 1750 亿参数的 GPT 3 大约需要的机时成本为 460 万美元,如果我们简单按照成本比例计算,则该场景至少需要算力近13,905 PFlo
205、p/s-day。AI 军备竞赛需要多大算力军备竞赛需要多大算力 训练算力:训练算力:CSP 及及 AI 创业公司带动训练算力需求快速增长创业公司带动训练算力需求快速增长 参考 2023 年 3 月 23 日发布的从英伟达 GTC 看 AI 工厂的投资机会,我们认为,在比较乐观的假设下,每家科技巨头(Big Tech)训练 GPT-4 及类似的多模态大模型需要 1.6万张 H100 GPU 的算力。这对应约 5 亿美金/家的资本开支,其中 4 亿美金是 GPU 采购费用。此外,我们看到世界各地出现 AI 大模型创业热潮,我们认为 1600 张 H100/家是 AI创业公司入门水平。我们认为全球大
206、约有 30 家科技巨头和 300 家 AI 初创企业进行相关投资。这对应近 300 亿美金的 GPU 需求,相当于英伟达 22 年数据中心收入的 2 倍。根据 IC Insight 预估 2022年全球 MPU 市场 1104 亿美元的空间计算,相当于全球芯片市场的 26.4%。从数据中心机柜投资来看,我们假设单机柜投资金额为 4 万美金,整体相关 AI 数据中心投资规模约 114亿美金。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。49 科技 科技 图表图表57:训练资本开支测算训练资本开支测算 训练需求训练需求 公司数量公司数量 GPU 类型类型 GPU 数量数量 ASP(K
207、USD)资本开支资本开支(mn USD)单机柜投资单机柜投资金额金额(KUSD)数据中心资数据中心资本开支本开支(mnUSD)总资本开支总资本开支(mn USD)总年运营成总年运营成本(本(kUSD)全年能耗全年能耗(MWh)CSP 非中国 15 H100 16000 25 6,000 40 1,200 7,200 288 1,471,680 中国 15 A800 60000 10 9,000 40 4,500 13,500 1,080 3,153,600 AI 创业公司 非中国 150 H100 1600 25 6,000 40 1,200 7,200 288 1,471,680 中国 15
208、0 A800 6000 10 9,000 40 4,500 13,500 1,080 3,153,600 合计合计 30,000 11,400 41,400 2,736 9,250,560 资料来源:英伟达官网,OpenAI,华泰研究预测 AI 算力缺口推动芯片快速迭代,高性能芯片功耗持续攀升。算力缺口推动芯片快速迭代,高性能芯片功耗持续攀升。2020 年 5 月,英伟达发布了A100 GPU,性能高达 19.5TFLOPS,相比普通 CPU 芯片算力提升多达 7 倍。后续 2022年 4 月发布的 H100 性能在此基础上提升了 2.4 倍,达到 67TFLOPS。算力的提升伴随着功耗的增加
209、,相比普通 CPU 芯片 85W 的 TDP,A100 功耗提升近 3 倍,达到 300W,两年后的 H100 在此基础上又翻倍达到 700W。推理算力:需求和应用需求成长成正比,供应商呈现百花齐放态势推理算力:需求和应用需求成长成正比,供应商呈现百花齐放态势 推理需求和用户数增长呈正比。推理需求和用户数增长呈正比。通常来说我们采用“云端训练,端侧推理”模式,即将数据传到云侧进行训练模型,训练好的模型随后下放到端侧,端侧利用训练好的模型直接进行推理。在推理芯片的选用方面,相较于训练更多关注模型大小而言,推理更依赖于任务本质,以此决定所需芯片种类。当需要大量内容/图像 AI 生成式时,需要 GP
210、U 进行推理计算(如英伟达主流的 T4 芯片);而对于较简单的推理过程(语音识别等),CPU 有时也会成为较好的推理引擎(相关公司如英特尔),甚至在特定的场景 FPGA、ASIC 也能成为很好的推理芯片(相关公司如 Xilinx、Altera、Lattice 等),总之相比训练芯片推理芯片厂商所采用的路径更多元化。从此前 IDC 等机构发布的统计结果来看,计算芯片中训练:推理需求的配比一般在 3:7到 4:6 之间。由此,我们可假设在稳态下推理需求是训练需求的 2 倍,有望带来约 600亿美金的投资。总体来看,我们预计 2025 年左右当生成式 AI 应用大规模落地后,数据中心用推理及训练芯片
211、市场约 900 亿美元。此外,能耗方面,据我们测算,此外,能耗方面,据我们测算,AI 大模型全年训练阶段和推理阶段能耗分别将占全球数据大模型全年训练阶段和推理阶段能耗分别将占全球数据中心耗电量中心耗电量 1.61%/0.77%。我们假设全球有 30 家科技巨头和 300 家 AI 初创企业参与GPT-4 及类似的多模态大模型的训练和推理,并对其耗电量进行了测算。以同类型 GPU芯片最高能耗配置为准,假设 GPU 芯片全年每天 24 小时无休运行,则估计全球 GPT-4级别 AI 大模型训练阶段和推理阶段耗电量分别为 9251/4415GWH,总计约占全球数据中心耗电量的 2.38%。若全球科技
212、巨头以此速度连续 5 年进行资本开支投入,则 5 年后 AI大模型训练及推理阶段所需耗电量将占到全球数中心总耗电量的 11.9%。计算芯片:算力储备竞赛开启,推理初步具备进口替代能力计算芯片:算力储备竞赛开启,推理初步具备进口替代能力 2022 年全球数据中心年全球数据中心 CPU/GPU 市场规模约市场规模约 249/166 亿美元亿美元 数据中心计算芯片主要包括数据中心计算芯片主要包括 CPU 处理器和处理器和 GPU、FPGA、ASIC 协处理器。协处理器。人工智能、5G、云计算等技术的发展推动全球数据量以指数形式快速增长,根据 IDC 预测,2025 年全球数据量将达到 175ZB,接
213、近 2020 年数据量的 3 倍。面对数据中心海量数据处理工作,传统 CPU 计算结构越来越难满足需求,辅助 CPU 进行数据运算的协处理器应运而生。运算协处理器基于不同设计架构存在多条技术路线,包括通用 GPU(GPGPU)、FPGA、ASIC 等。GPGPU 凭借强通用性和完善软件生态系统成为该领域的主流解决方案。据 IDC数据,2021 年我国 GPGPU 服务器销售额占据 AI 加速服务器市场的 88.4%,远超 ASIC、FPGA 等服务器。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。50 科技 科技 图表图表58:CPU 处理器与处理器与 GPGPU、ASIC、FP
214、GA协处理器协处理器 资料来源:各公司官网,华泰研究 2022 年全球数据中心年全球数据中心 CPU 市场规模约市场规模约 249 亿美元,亿美元,Intel、AMD 两家占据垄断地位。两家占据垄断地位。2022 年,英特尔数据中心事业部(DCG)收入 192 亿美元,AMD 数据中心业务收入为60 亿美元,合计 252 亿美元。根据 DIGITIMES Research 数据,2022 年英特尔在服务器CPU 市场出货量占比为 77.00%,据此我们测算全球数据中心 CPU 市场规模约 249 亿美元。从市场竞争格局来看,Intel 和 AMD 两家占据市场主要份额,其中英特尔凭借至强系列市
215、场份额维持在 60%以上,AMD 市场份额持续提升。根据 IDC 数据,2Q22 英特尔和AMD 服务器 CPU 全球出货量份额分别约为 63.7%和 29.2%,合计占据全球市场 89.9%的份额。图表图表59:2013-2022 年英特尔数据中心收入年英特尔数据中心收入 图表图表60:服务器服务器 CPU 市场份额(按出货量)市场份额(按出货量)资料来源:Wind,华泰研究 资料来源:IDC,华泰研究 2022 年全球数据中心年全球数据中心 GPU 市场规模超市场规模超 166 亿美元。亿美元。NVIDIA 和 AMD 为 GPU 领域代表性厂商,二者占据市场绝大部分份额。2015 年 N
216、VIDIA 数据中心业务收入仅为 3.4 亿美元,2022 年突破 150 亿美元,年复合增速达 71.86%,反映云端计算对 GPU 的旺盛需求。2022 年 AMD 数据中心业务收入为 60 亿美元,剔除服务器 CPU 收入约 39 亿美元(由DIGITIMES Research 数据,2022 年 AMD 服务器 CPU 市占率 15.6%及全球服务器 CPU市场规模 249 亿美元测算)和服务器 FPGA 收入约 5 亿美元(由 AMD 所披露的 Xilinx 营收 46 亿元及在数据中心占比约 11%测算),推算其数据中心 GPU 营收约为 16 亿美元。据此,我们测算 2022 年
217、全球数据中心 GPU 市场规模超 166 亿美元。-30%-20%-10%0%10%20%30%40%05003002013 2014 2015 2016 2017 2018 2019 2020 2021 2022(亿美元)英特尔同比增速0%10%20%30%40%50%60%70%80%90%100%1Q20 2Q20 3Q20 4Q20 1Q21 2Q21 3Q21 4Q21 1Q22 2Q22IntelAMDARM others 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。51 科技 科技 图表图表61:2015-2022 年年 NVIDIA数据中心
218、业务收入数据中心业务收入 资料来源:Bloomberg,华泰研究 科技大厂陷入科技大厂陷入 FOMO(Fear of Missing Out)心理,算力储备竞赛开启心理,算力储备竞赛开启 2023 年 5 月 24 日英伟达发布 1Q24 财报,受 AI 需求拉动业绩大超预期,带动市值提升至接近 1 万亿美金(市值约为 5 倍 AMD 和 8 倍英特尔),这是 2000 年 Intel 市值超过 1 万亿美金以来,芯片公司第一次提升至 1 万亿美金。业绩会上,英伟达 CEO 黄仁勋也表示全球价值 1 万亿美元的数据中心将从传统计算转向智能网卡、智能交换机和 GPU 等加速计算,且工作负载主要以
219、生成式 AI 为主。我们认为,在大模型创新时代,当前主要科技企业陷入 FOMO(Fear of Missing Out)的心理状态,在 AIGC 领域积极部署,云厂商开启算力储备竞赛。图表图表62:海外头部科技公司市值走势海外头部科技公司市值走势 资料来源:Wind,华泰研究 0%20%40%60%80%100%120%140%160%02,0004,0006,0008,00010,00012,00014,00016,0002000212022(百万美元)营业收入同比增速01,0002,0003,0004,0005,0006,0007,0008,00
220、09,00010,0001995/011995/081996/031996/101997/051997/121998/071999/021999/092000/042000/112001/062002/012002/082003/032003/102004/052004/122005/072006/022006/092007/042007/112008/062009/012009/082010/032010/102011/052011/122012/072013/022013/092014/042014/112015/062016/012016/082017/032017/102018/052
221、018/122019/072020/022020/092021/042021/112022/062023/01(亿美元)英特尔英伟达高通 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。52 科技 科技 推理初步具备进口替代能力,训练发展尚需时日推理初步具备进口替代能力,训练发展尚需时日 2022 年 8 月 31 日,英伟达发布公告称美国政府于 8 月 26 日对公司向中国(含中国香港)和俄罗斯出口高端 GPU 芯片加强限制。未来公司向中国客户出口 A100 和 H100 芯片需获得许可,该指令将适用于未来英伟达推出的峰值性能及接口性能大致相当/等于/优于 A100的芯片及相关系
222、统。尽管后续英伟达推出 A800 和 H800 作为替代 A100 和 H100 出口中国的产品,但在内存带宽上做了部分裁剪,在大量并行计算的情况下实际性能我们预估降低30%-50%。美国对华 GPU 出口限制之后,又相继把海光信息、寒武纪等国内头部芯片公司列入实体清单,限制其芯片流片。我们认为美国对华出口限制,将致使中国先进工艺发展受限、国产替代方案下增加大模型训练成本/时间。但国内互联网、云计算大厂等下游客户出于供应链安全考虑加速芯片国产替代,或有助于国内计算芯片企业产品的商业化落地和软件生态打磨。图表图表63:美国禁令限制中国半导体行业发展美国禁令限制中国半导体行业发展 资料来源:BIS
223、,华泰研究 近年来,国产计算芯片取得长足发展,具体从近年来,国产计算芯片取得长足发展,具体从 CPU、GPU、FPGA、ASIC 等领域来看:等领域来看:1)CPU:国产 CPU 产业初具规模,现已形成以龙芯、飞腾、申威等为代表的具备竞争力的国产 CPU 力量。根据内核指令集路线,国产主流 CPU 厂商可分为三类:1)“指令集授权+自研”路线,代表厂商为龙芯和申威,分别基于 LoongArch 指令集和 Alpha 指令集,其他架构均自研。2)“指令集授权”路线,代表厂商为海思和飞腾,两者已获得 ARM V8架构指令集永久授权,拥有较高自主发展权。3)“IP 内核授权”路线,代表厂商为获得X8
224、6 内核层级授权的兆芯和海光,其自主可控程度最低,但生态更完善。2)GPU:国产 GPU 厂商沿图像处理 GPU 和通用 GPU 两条路径切入,图像处理 GPU 侧重图形图像的渲染,GPGPU 则侧重处理以人工智能训练、推理为代表的通用计算任务。在人才、资本共同驱动下国产 GPU 产品落地加速,其中图像处理 GPU 代表厂商有景嘉微、芯动科技;通用 GPU 代表厂商包括壁仞科技、登临科技等;3)FPGA、ASIC 等:依托互联网计算企业投资建设持续加码,国产 FPGA、ASIC 等 AI加速芯片异军兴起。其中,昆仑芯、华夏芯等选择 FPGA 路线切入,由于 FPGA 产品兼顾灵活性与效率,其
225、CPU+FPGA 结构在应用和算法变化较多的场景优势明显;而寒武纪、燧原科技、平头哥等初创公司则选择 ASIC 技术路线,ASIC 类芯片专用性强,在特定场景中其针对部分算法的加速效果要显著优于 GPU,且能效比更高,其份额有望伴随生态环境进一步完善实现较大提升。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。53 科技 科技 图表图表64:国内计算芯片一览国内计算芯片一览 资料来源:各公司官网,华泰研究 国产国产 AI 加速芯片在训练端和推理端进口产替代进程上有所差异:加速芯片在训练端和推理端进口产替代进程上有所差异:1)中国)中国 AI 训练芯片进展:仍与英伟达在性能和生态有一
226、定差距。训练芯片进展:仍与英伟达在性能和生态有一定差距。训练芯片需通过海量数据训练出复杂的神经网络模型,使其适应特定的功能,对性能和精度有较高的要求,并需具备一定的通用性。近年来,国内厂商训练芯片产品硬件性能不断取得突破,但与市场主流英伟达 A100 产品仍存在一定差距。寒武纪去年年底推出思元 590 系列在部分模型上由于其 ASIC 专用性表现出更优异的性能,理论性能已超过 A100,但仍需要后期适配和技术支持。此外,由于英伟达 CUDA 软件平台已经成为行业事实上的标准,国产 AI 训练芯片为兼容 CUDA 生态可能带来一定性能损耗。图表图表65:国内主要云端训练芯片与英伟达主流训练芯片对
227、比国内主要云端训练芯片与英伟达主流训练芯片对比 资料来源:各公司官网,华泰研究 2)中国)中国 AI 推理芯片进展:推理芯片进展:推理芯片则是利用神经网络模型进行推理预测,对峰值计算性能要求较低,则更加注重单位能耗算力、时延、成本等综合指标,我国厂商多选择先从推理端切入。寒武纪、海思以及燧原等国内厂商产品已具备与市场主流的 Tesla T4 正面竞争能力。以寒武纪思元 370 为例,其 INT8 运算性能达到 256 TOPS,高于 T4 的 130 TOPS,且能效比和性价比均更优,已具备替代 T4 能力。主要应用场景类型代表产品团队背景创立时间公司服务器,工作站CPU/GPGPU海光3号,
228、DCU8000系列中科院计算所2014年海光信息服务器、桌面等CPUS2500,D2000中国电子2014年飞腾桌面、工控等CPU龙芯3A5000中科院计算所2001年龙芯中科桌面CPU/GPU开胜KH-30000上海市国资委2013年兆芯科技服务器等CPU/GPU鲲鹏920-7260华为2004年海思超算CPU申威1621捷世智通科技2016年申威军用市场、桌面办公等GPUJM5400、JM9231国防科技大学2006年景嘉微桌面PC等GPU风华1号、风华2号Imagination、AMD2007年芯动科技嵌入式设备、办公电脑等GPUGenBu01西邮2021年芯瞳半导体云端推理GPUSV1
229、00、SG100AMD2018年瀚博半导体云端推理、边缘端GPUMTT S60英伟达2020年摩尔线程云端训练、云端推理GPGPU燧思1.0、燧思2.0AMD2018年燧原科技云端训练、云端推理GPGPU7nm GPGPUAMD2015年天数智芯云端训练、云端推理GPGPUGoldwasser图芯,百度,英伟达,AMD,思科,博通2017年登临科技云端训练GPGPUAntoum芯片卡内基梅隆大学、Intel、Marvell和Oracle2018年墨芯人工智能云端训练、云端推理GPGPUBP100商汤科技、AMD2019年壁仞科技数据中心、AIGPGPUMXN、MXC、MXGAMD2020年沐曦
230、集成电路数据中心、安防ASIC思元590、290、370中科院2016年寒武纪数据中心/电动汽车/5GFPGAHME-H/P/R/M京微雅格、Skyworks2017年京微齐力通信、图像处理、工业控制、汽车电子、消费电子、人工智能FPGA小蜜蜂(GW1N)、晨熙(GW2A)、ASSP GoBridgeLattice、Candance2014年高云半导体LED显示、工业控制、图像处理、仪器设备、高端医疗、基站通讯FPGASeagull 1000系列、Sealion2000系列、Seal 5000系列Trident Microsystem、Broadcom、Lattice2012年智多晶云计算、数
231、据中心DPUYB6480博通、AMD、英特尔、海思2020年云豹智能数据中心DPUK1、K2中科院2018年中科驭数主要云端训练芯片对比主要云端训练芯片对比壁仞科技壁仞科技BR100燧原燧原云邃云邃T20摩尔线程摩尔线程MTT S300海光信息海光信息深算一号深算一号华为海思华为海思昇腾昇腾910寒武纪寒武纪思元思元590寒武纪寒武纪思元思元290Habana(Intel)GaudiGoogleTPU 3.0NVIDIAH100 SXMNVIDIAA100 80GBPcle处理器名处理器名称称NA24 GCU-CARE4096 MUSA4096(64 CUs)弹性多核多核多核多核多核14592
232、(CUDA cores)6912(CUDA cores)逻辑核心数240 TFLOPS(FP32)32 TFLOPS(FP32)15.2 T FLOPS(FP32)NA320 TFLOPS(FP16)500+TFLOPS(FP16)256 TOPS(INT16)60 TFLOPS(FP32)420 TFLOPS(FP32)51 TFLOPS(FP32)19.5 TFLOPS(FP32)训练计算性能64GB32GB32GB32GBNA32GB32GB128GB80GB40GB内存大小1.64TB/S1.6TBS448GB/S2014GB/SNA1228GB/S1TB/SNA3TB/S2039GB
233、/S内存带宽450-550W300W250W350W310W400W350W140W200W700W400W功耗0.48 TFLOPS/W0.11 TFLOPS/W0.06TFLOPSNA1.03 TFLOPS/W(FP16)0.73 TFLOPS/W(INT16)0.42TFLOPS/W2.1 TFLOPS/W0.07TFLOPS/W0.05 TFLOPS/W能效比7nm12nm12nm7nm7nm7nm7nm16nmNA5nm7nm工艺节点 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。54 科技 科技 图表图表66:国内主要推理芯片与英伟达主流推理芯片对比国内主要推理芯片与
234、英伟达主流推理芯片对比 资料来源:各公司官网,华泰研究 服务器:服务器:AI 服务器市场稳步增长,服务器市场稳步增长,2021-2026E CAGR 预计达预计达 17%除了一系列 GPU 芯片以外,英伟达还进一步推出 NVIDIA DGX 超级计算机,成为大语言模型实现突破背后的引擎。下图展示了 DGX 超级计算机的典型结构。DGX 配有 8 个H100 GPU 模组,H100 配有 Transformer 引擎,旨在支持类似 ChatGPT 的大模型。这 8个 H100 模组通过 NVLINK Switch 彼此相连,以实现全面无阻塞通信。8 个 H100 协同工作,形成一个巨型 GPU。
235、通过 400 Gbps 超低延迟的 NVIDIA Quantum InfiniBand 进行网络内计算,将成千上万个 DGX 节点连接成一台 AI 超级计算机,并不断扩展应用范围,成为全球客户构建 AI 基础设施的蓝图。图表图表67:NVIDIA DGX 超级计算机结构超级计算机结构 资料来源:GTC2023,华泰研究 主要云端推理芯片对比主要云端推理芯片对比沐曦沐曦MXN100天数 智铠天数 智铠MR-V100登临登临Goldwasser L256燧原 云燧燧原 云燧i20寒武纪 思元寒武纪 思元370Google TPU 3.0NVIDIA Tesla T4处理器名称处理器名称64(FP1
236、6)32(FP32)支持训练支持训练8.1(FP32)训练计算性能(TFLOPS)160 INT8384 INT8256 INT8256 INT8256 INT8支持推断支持推断130 INT8推断计算性能(TOPS)板级功耗150W45W150W75W200W70W功耗-819GB/S320 GB/S带宽2.56 TOPS/W5.69 TOPS/W1.71 TOPS/W3.41 TOPS/W1.86 TOPS/W推断能效比-12nm7nm12nm工艺节点 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。55 科技 科技 AI 大模型训练和推理催生大模型训练和推理催生 GPU 需求
237、上涨。需求上涨。目前 AI 训练主要采用:1)英伟达在 AI 训练GPGPU:包括 V100/A100/H100 以及美国限制出口后英伟达推出的裁剪版 A800。2)AMD 推出的 AI 训练芯片包括 MI 250/250X/300。AI 服务器采用异构式架构,NVIDIA DGX A100 服务器 8 个 GPU+2 个 CPU 的配置远高于普通服务器 12 个 CPU 的配置,能够满足 AI 大模型需求。IDC 预计,全球 AI 服务器市场规模稳健增长,2021-2026E CAGR预计达 17%。我们认为,AI 大模型将带动算力需求增长,催生对 AI 服务器的需求。工业富联、联想、中兴通
238、讯、紫光股份等公司有望把握住 AI 大模型带来的机会,受益于 AI 服务器需求的持续提升。在推理芯片的选用方面,相较于训练更多关注模型大小而言,推理更依赖于任务本质,以此决定所需芯片种类。当需要大量内容/图像 AI 生成式时,需要 GPU 进行推理计算(如英伟达主流的 T4 芯片);而对于较简单的推理过程(语音识别等),CPU 有时也会成为较好的推理引擎。图表图表68:AI 服务器和普通服务器的区别服务器和普通服务器的区别 资料来源:英伟达官网,浪潮官网,华泰研究 根据 IDC 数据,2014-2021 年,全球服务器厂商销售总额总体呈上升趋势,2021 年全球服务器市场规模达到 USD99b
239、n。其中,戴尔、HPE、联想、浪潮市场份额排名前列,合计占比超过 40%。IDC 认为 2021-2026E 全球 AI 服务器厂商市场规模将稳健增长,2026年市场规模有望达 USD35mn,预计 2021-2026E CAGR 达到 17%。1H21 全球 AI 服务器厂商竞争格局相对集中,其中浪潮信息占比最高(20.2%),其后是戴尔、HPE、联想。图表图表69:2014-2021 年全球服务器厂商市场规模年全球服务器厂商市场规模 图表图表70:4Q22 全球服务器厂商竞争格局全球服务器厂商竞争格局 资料来源:IDC,华泰研究 资料来源:IDC,华泰研究-5%0%5%10%15%20%2
240、5%30%35%02040608000021销售额同比增速(USDbn)ODM28.2%戴尔14.5%HPE11.8%联想7.0%浪潮7.0%Super Micro5.0%IBM4.7%新华三4.1%华为2.9%Cisco2.2%其他12.7%免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。56 科技 科技 图表图表71:2021-2026E 全球全球 AI 服务器厂商市场规模服务器厂商市场规模 图表图表72:1H21 全球全球 AI 服务器厂商竞争格局服务器厂商竞争格局 资料来源:IDC,华泰研究 资料来源:IDC
241、,华泰研究 先进封装先进封装&材料:高算力需求带动先进封装需求材料:高算力需求带动先进封装需求 高算力需求带动先进封装需求,高算力需求带动先进封装需求,ABF 载板有望充分受益。载板有望充分受益。以 AI 大模型为基础的 AIGC 新应用快速兴起,对算力的要求提高,服务器单机将搭载更多的 CPU/GPU 等芯片,解决多芯片间高速互连的先进封装成为关键。产业将从产业将从 2.5D 逐步走向逐步走向 3D 封装,先进封装助力高性能计算芯片实现超越摩尔定律封装,先进封装助力高性能计算芯片实现超越摩尔定律。高性能计算领域,先进封装是超越摩尔定律的一项重要路径,其能提供更高的系统集成度与芯片连接密度,芯
242、片系统将持续实现性能提升,同时兼顾功耗和面积。目前行业正从芯片/Chiplet 在平面上通过中介层、硅桥、高密度 RDL 等方式连接的 2.5D 封装,逐步走向把存储、计算芯片在垂直维度进行堆叠的 3D 封装。我们看到 2.5D/3D 封装领域主要方案提供者为:台积电(3D Fabric 平台),英特尔(EMIB/Foveros)、三星(3D TSV/X-Cube)、日月光(VIPack)等。图表图表73:先进封装:从先进封装:从 2.5D 走向走向 3D 封装封装 资料来源:ISSCC,华泰研究 而 IC 载板作为先进封装的关键材料,有望进一步打开价值空间。尤其 ABF 载板,相较于BT 载
243、板具备层数多、面积大、线路密度高、线宽线距小等特点,更能承载 AI 高性能运算,在 CPU、GPU、FPGA、ASIC 等高运算性能 IC 放量预期下将更充分受益。据 Prismark预测,ABF 载板为 IC 载板行业规模最大、增速最快的细分领域,预计全球 ABF 载板市场规模 2026 年将达到 121 亿美元,2021-2026 年 CAGR 为 11.5%。055404505540202120222023E2024E2025E2026E市场规模同比增速(USDmn)(%)浪潮信息20%戴尔14%HPE10%联想6%华为5%IBM4%新华三4%
244、思科2%Oracle1%富士通1%其他33%免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。57 科技 科技 图表图表74:全球全球 IC 载板行业细分领域市场规模载板行业细分领域市场规模 资料来源:Prismark(含预测),华泰研究 长电科技等国内公司已在量产长电科技等国内公司已在量产 2.5D 封装领域实现初步突破,未来将逐步进入封装领域实现初步突破,未来将逐步进入 3D 封装领封装领域。域。2.5/3D 封装核心在于以微小线宽距和微小中心距的微凸点为特点的高密度中介层互联,包括 TSV(硅通孔)、RDL(重布线堆叠)、FO interposer(扇出型中介)、嵌入式芯片基板
245、。我们看到国内公司正在相关技术方面取得初步突破。长电科技 2022 年已突破带 2.5D硅通孔 MCM 的大尺寸 FCBGA 技术,并进入小量产。未来其有望在 2.5D 封装领域逐步成熟,并走向 3D 封装领域。通富微电多层堆叠 NAND Flash 及 LPDDR 封装实现稳定量产,并于 2022 年完成基于 TSV 技术的 3DS DRAM 封装开发。设备方面,封装设备国产替代空间广阔,测试设备长期受益于设备方面,封装设备国产替代空间广阔,测试设备长期受益于 Chiplet 等趋势。等趋势。当前后道封装设备主要由 Besi、Disco、K&S 等公司占据,国产化率较低。我们看到光力科技子公
246、司 ADT、LP 及 LPB 可提供涵盖传统封装及先进封装领域的划片机产品,大族激光可提供半导体激光切割设备。此外,我们看到 Chiplet 技术可将不同工艺的小芯片集成,提升芯片系统的良率及降低成本,正在成为行业趋势。我们认为未来成熟的 Chiplet 替代传统SoC 方案,或将提升模拟、数模混合等测试机需求,华峰测控在积极布局。光模块:数据中心市场空间广阔,光模块:数据中心市场空间广阔,2023 年有望迎年有望迎 800G 放量元年放量元年 全球光模块市场稳健增长,数据中心光模块市场空间广阔。全球光模块市场稳健增长,数据中心光模块市场空间广阔。根据 Lightcounting 于 2023
247、 年3 月发布的数据,20192021 年,全球光模块市场规模从 89 亿美元增长到 114 亿美元,2022 年全球以太网光模块出货量达 6349 万只,同比增长 11%,出货金额达 50.72 亿美元,同比增长 9%;Lightcounting 预计 2028 年全球以太网光模块出货量合计将达到 8576 万只,出货金额 82.97 亿美元,对应 2023-2028 年复合增长率分别达 5%、9%。全球光模块市场结构方面,CWDM/DWDM 光模块和用于数据中心的以太网光模块占比较高,二者出货金额合计占比从 2019 年的 74%提升至 2021 年的 79%。920
248、200250200212022E2026EFC-BGA/LGA/PGAFC-CSP/FC-DRAMWB-PBGA/CSPBOC模组(亿美元)免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。58 科技 科技 图表图表75:全球光模块市场规模及预测(亿美元)全球光模块市场规模及预测(亿美元)图表图表76:2021 年全球各品类光模块出货金额占比年全球各品类光模块出货金额占比 资料来源:LightCounting,华泰研究 资料来源:LightCounting,华泰研究 800G 有望迎接放量元年。有望迎接放量元年。随着云计算、AI、元宇宙等技术产业的快速发展和传统
249、产业数字化的转型,全球范围内数据快速的增长对网络带宽提出新的要求,有望催生光模块速率升级需求。LightCounting 指出,AI 应用等带来的数据流量的增长,超预期的数据中心带宽需求以及光模块厂商技术的迭代都是推动 800G 应用的动力。我们认为随着 800G 光模块有望迎来放量元年,国内头部光模块以及上游光器件、光芯片厂商有望迎发展机遇。根据 Lightcounting 预测,2028 年 800G 出货量有望达 998 万只,对应 2023-2028 年复合增长率为 72%。图表图表77:各速率全球以太网光模块出货量及预测各速率全球以太网光模块出货量及预测 资料来源:LightCoun
250、ting,华泰研究 国内光模块厂商彰显全球竞争力。国内光模块厂商彰显全球竞争力。根据 Lightcounting 于 2022 年 5 月发布的统计数据,2021 年全球前十大光模块厂商,中国厂商占据六席,分别为旭创(与 II-VI 并列第一)、华为海思(第三)、海信宽带(第五)、光迅科技(第六)、华工正源(第八)及新易盛(第九);相比于 2010 年全球前十大厂商主要为海外厂商,国内仅 WTD(武汉电信器件有限公司,2012 年与光迅科技合并)一家公司入围,体现出十年以来国产光模块厂商竞争实力及市场地位的快速提升。$0$1,000$2,000$3,000$4,000$5,000$6,000$
251、7,000$8,000$9,0002018 2019 2020 2021 2022 2023 2024 2025 2026 2027 202841%2%6%38%6%1%6%EthernetFibre ChannelOptical InterconnectsCWDM/DWDMWireless FronthaulWireless BackhaulFTTx05,000,00010,000,00015,000,00020,000,00025,000,00030,000,00020022420252026202720281G10G25G40G50G100G2
252、00G400G800G1.6T 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。59 科技 科技 图表图表78:2021 年全球年全球 Top10 通信光模块国产厂商占六席通信光模块国产厂商占六席 厂商厂商 2010 2016 2018 2021 1 Finisar Finisar Finisar II-VI&旭创科技 2 Opnext 海信宽带 旭创科技 3 Sumitomo 光迅科技 海信宽带 华为海思 4 Avago Acacia 光迅科技 Cisco(Acacia)5 Source Photonics FOIT(Avago)FOIT(Avago)海信宽带 6 Fujitsu
253、 Cclaro Lumentum/Oclaro 光迅科技 7 JDSU 旭创科技 Acacia Broadcom(Avago)8 Emcore Sumitomo Intel 华工正源 9 武汉电信器件 Lumentum AOI 新易盛 10 Neophotonics Source Photonics Sumitomo Molex 资料来源:LightCounting,华泰研究 数据中心网络架构的演进带动高速光模块用量增长。数据中心网络架构的演进带动高速光模块用量增长。随着数据流量与算力的提升,数据中心网络架构与容量都面临更为严苛的挑战,多平面 CLOS 网络架构正逐步发展成为数据中心网络架构的
254、主流。根据张璋数据中心演进发展对光通信器件模块的影响的数据,从10G 网络架构向多平面网络架构演进时,盒式交换机用量提升,带动光模块应用数量迅速增长,以收敛比 1:3 计算容量,多平面 CLOS 架构光模块应用相较于传统 10G 网络架构,光模块应用数量快速增长。图表图表79:光模块的发展趋势光模块的发展趋势 资料来源:ITPUB,华泰研究 传统可插拔光模块技术演进难以支撑高算力背景下数据中心的可持续发展。传统可插拔光模块技术演进难以支撑高算力背景下数据中心的可持续发展。根据 Cisco 数据,在高算力背景下交换机交换芯片、光模块功耗增长迅速,传统可插拔光模块技术演进难以支撑数据中心的可持续发
255、展,主要由于:1)SI(电传输)的实现遭遇材料瓶颈,PCB 传输高速电信号,在应用传统可插拔光模块时,信号传输距离长、传输损失大。更低损耗的可量产 PCB 材料面临多重技术困难;2)功耗问题,满载 1.6T 模块设备功耗巨大,散热设计难度大,3)成本问题,整机成本相应提升,会加大网络建设的初期投入;4)端口设计密度无法持续提升,传统可插拔光模块系统在支持 128 端口时需要非常复杂的系统设计,模块散热难度较大。CPO 技术在技术在 AI 集群和集群和 HPC 中渗透率将逐步提升,预计在中渗透率将逐步提升,预计在 2027 年部署的年部署的 800G 和和 1.6T端口中,端口中,CPO 端口将
256、占到近端口将占到近 30%。根据 LightCounting 预测,未来 5 年时间内,AI 集群与 HPC 将会是 CPO 技术主要的两大切入点,其背后的驱动力也是高算力、高带宽的迫切需求。LightCounting 预计可插拔设备将在未来 5 年甚至更长时间内继续主导市场,然而在2027 年部署的 800G 和 1.6T 端口中,CPO 端口将占到近 30%。Communications Industry Researchers(CIR)指出,2025 年全球共封装光学元件(CPO)的销售额将超过 13亿美元,并预测至 2028 年全球共封装光学器件的销售额将会翻一番,达到 27 亿美元。
257、免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。60 科技 科技 图表图表80:CPO 技术应用领域端口数量对比技术应用领域端口数量对比 图表图表81:2021-2027 年年 800G 与与 1.6T 端口技术类型端口技术类型 资料来源:LightCounting,华泰研究 资料来源:LightCounting,华泰研究 服务器产业链相关公司:工业富联、环旭电子服务器产业链相关公司:工业富联、环旭电子 工业富联:服务器代工龙头厂商,深度受益工业富联:服务器代工龙头厂商,深度受益 AI 服务器市场扩容带来的机会服务器市场扩容带来的机会 工业富联作为提供服务器代工服务的龙头厂商,将深
258、度受益于工业富联作为提供服务器代工服务的龙头厂商,将深度受益于 AI 服务器市场扩容带来的服务器市场扩容带来的机会,有望凭借高性能的机会,有望凭借高性能的 AI 服务器迎来营收增长。服务器迎来营收增长。客户方面,相较于 2021 年,2022 年工业富联服务器营收中云服务商比重由 35%上升至 42%,来自云服务商客户的营收占比持续提升;产品方面,伴随着 AI 硬件市场迅速成长,公司 AI 服务器及 HPC 出货增长迅速,在 2022 年云服务商产品中占比增至约 20%。算力时代的开启为高效 AI 服务器提供了更广阔的发展空间,据公司 2022 年报,相关新产品将在 2023 年陆续研发推出。
259、2022 年,工业富联云服务设备占总营收比例超过 40%。环旭电子:服务器和高速交换机主机板供应商,协助客户推出边缘环旭电子:服务器和高速交换机主机板供应商,协助客户推出边缘 AI 计算服务器计算服务器 环旭为客户提供 ODM/JDM/EMS 伺服器、存储、NAS 和 SSD 产品以及制造服务,并提供 L10 系统设计服务,包括主机板、固件 BIOS 和 BMC、子卡(背板、附加卡等)、外壳和散热设计以及系统集成。Al 服务器方面,环旭提供设计制造(JDM)服务,协助品牌客户推出边缘 Al 计算服务器。根据环旭电子 2022 年报,云端及存储类业务营收达 69.89 亿元,同比增长 45.8%
260、,占公司营收比例由 2021 年的 8.7%增长至 2022 年的 10.2%。我们认为,受益于 AI 带来的云端及边缘计算新需求,公司云端及存储类产品营收有望实现长期稳健增长。计算芯片产业链相关公司:燧原科技、壁仞科技、寒武纪、京微齐力、芯计算芯片产业链相关公司:燧原科技、壁仞科技、寒武纪、京微齐力、芯动科技、沐曦集成电路、海光信息、登临科技、中科驭数、摩尔线程、天动科技、沐曦集成电路、海光信息、登临科技、中科驭数、摩尔线程、天数智芯、高云半导体、墨芯人工智能、智多晶、云天畅想数智芯、高云半导体、墨芯人工智能、智多晶、云天畅想 燧原科技(未上市):专注于人工智能云端领域,训练、推理产品全覆盖
261、燧原科技(未上市):专注于人工智能云端领域,训练、推理产品全覆盖 燧原科技成立于 2018 年 3 月,公司专注于人工智能云端领域,致力于成为中国领先的数据中心基础设施提供商。公司创始人兼 CEO 赵立东曾历任 AMD 产品工程部高级总监以及紫光集团副总裁,有近二十多年的 CPU/GPU/APU 研发经验;创始人兼 COO 张亚林在AMD 亦有长达十年的任职经历,期间曾领导开发全球最大融合芯片 APU,产业经验丰富。2021 年公司接连发布第二代训练产品云燧 T20/T21 和第二代推理产品云燧 i20,其中云燧i20 单精度 FP32 峰值算力达到 32TFLOPS,整型 INT8 峰值算力
262、达到 256TOPS,分别较第一代推理产品提升 1.8/3.6 倍,存储带宽高达 819GB/s,领先于行业同类产品水平。公司成立至今已完成多轮融资,累计融资超 30 亿元,其中 2022 年 8 月完成 C+轮融资,大基金二期入股。腾讯作为公司战略投资方,为其提供广泛应用场景,双方针对 AI 的多种应用场景进行深度合作,有利推动公司产品研发突破进程。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。61 科技 科技 壁仞科技(未上市):致力于打造通用计算体系和软硬件平台,多次刷新融资纪录壁仞科技(未上市):致力于打造通用计算体系和软硬件平台,多次刷新融资纪录 壁仞科技创立于 201
263、9 年,公司致力于开发原创性的通用计算体系,建立高效的软硬件平台,同时在智能计算领域提供一体化的解决方案。发展路径上,公司首先聚焦云端通用智能计算,逐步在人工智能训练和推理、图形渲染等多个领域赶超现有解决方案,实现国产高端通用智能计算芯片的突破。2022 年 8 月 9 日,壁仞科技在上海发布首款通用 GPU 芯片 BR100,16 位浮点算力达到 1000T 以上、8 位定点算力达到 2000T 以上,单芯片峰值算力达到 PFLOPS 级别,标志着中国的通用 GPU 芯片迈上“每秒千万亿次计算”新台阶。成立以来,公司在短时间内完成了由顶级投资机构启明创投、IDG 资本、华登国际中国基金、高瓴
264、创投等领投的多轮融资。公司于 2020 年 6 月完成 A 轮融资,总额为 11 亿元,创近年芯片设计领域新纪录。2021 年 3 月,公司完成 B 轮融资,累计融资额超 47 亿元,继续刷新芯片设计领域融资速度及融资规模纪录。寒武纪:国内寒武纪:国内 AI 芯片先行者芯片先行者 寒武纪成立于 2016 年,专注于人工智能芯片产品的研发与技术创新,可为云端、边缘端、终端提供全品类系列化智能芯片和处理器产品。公司研发团队实力雄厚,创始人陈天石曾在中科院计算所担任研究员、博士生导师,在人工智能和处理器芯片等相关领域从事基础科研工作十余年,具备坚实的理论功底和丰富的研发经验。截至 2022 年底,公
265、司研发人员数量达 1205 人,占公司总人数 79.49%。公司已推出思元 100、思元 220、思元 270、思元 290、思元 370 等多款处理器芯片,面向互联网、金融、交通、能源、电力和制造等领域的复杂 AI 应用场景提供算力支持。2018-2022 年,公司营收从 1.17 亿元增长至 7.29亿元,年均复合增长率达到 57.99%。京微齐力(未上市):国产京微齐力(未上市):国产 FPGA 领军厂商,立足消费市场开拓高端领军厂商,立足消费市场开拓高端 京微齐力成立于 2017 年,是国内最早进入自主研发、规模生产、批量销售通用 FPGA 芯片及新一代异构可编程计算芯片的企业之一。公
266、司拥有超 200 件专利,具备独立完整的自主知识产权,涵盖 FPGA 内核设计、SOC 架构设计、芯片开发、EDA 软件开发、IP 开发与集成等全栈技术领域。公司制定了四大产品方向:面向数据中心/电动汽车/5G 的高端FPGA 芯片;面向人工智能的 AiPGA(AI in FPGA)芯片;面向新基建/工业物联网的异构计算 FPGA 和 HPA(Heterogeneous Programmable Accelerator)芯片;面向嵌入式应用的 eFPGA(embedded FPGA)核。目前,公司产品在 65/55/40nm 工艺节点上全面实现量产,22nm 产品从 2022 年开始规模量产,
267、产品应用场景涵盖通信、工业、安防、电力、医疗、消费等领域。芯动科技(未上市):国内一站式芯动科技(未上市):国内一站式 IP 和芯片定制领军企业和芯片定制领军企业 芯动科技是拥有 17 年历史的中国一站式 IP、芯片定制及 GPU 领军企业,聚焦计算、存储、连接等三大赛道,提供全球各大工艺厂从 55 纳米到 5 纳米 FinFET 全套高速 IP 和高性能定制芯片解决方案。公司 17 年以来已赋能全球数百家知名客户,授权逾 100 亿颗高端SoC 芯片进入规模量产,拥有 100%成功率以及超过十亿颗 FinFET 定制芯片成功量产的骄人业绩。并先后推出了国内第一款 4K 级多路服务器 GPU、
268、第一款 4K 级 4 屏桌面和嵌入式 GPU 并快速进入商用,性能强劲,跑分领先,功耗低,自带智能计算能力。2023 年5 月 20 日,芯动科技在全国科技活动周暨北京科技周活动透露正在研发新一代的风华 3 号GPU 将支持光线追踪等先进技术。公司历史客户群涵盖中兴通讯、瑞芯微、全志、君正等国内前十设计公司,以及高通、微软、AMD、亚马逊、安盛美等全球知名企业。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。62 科技 科技 沐曦集成电路(未上市):国产高性能沐曦集成电路(未上市):国产高性能 GPU 芯片解决方案供应商芯片解决方案供应商 沐曦集成电路成立于 2020 年,致力于为
269、异构计算提供全栈 GPU 芯片及解决方案。公司创始团队产业经历丰富,创始人陈维良曾任 AMD 全球 GPGPU 设计总负责人,两位 CTO 均为前 AMD 首席科学家,目前分别负责公司软硬件架构,核心成员平均拥有近 20 年高性能GPU 研发经验。目前公司已推出 MXN 系列 GPU(曦思)用于 AI 推理,MXC 系列 GPU(曦云)用于 AI 训练及通用计算,以及 MXG 系列 GPU(曦彩)用于图形渲染,可满足数据中心对高能效和高通用性的算力需求。产业合作方面,公司已与服务器 OEM、大数据中心、互联网、运营商等行业客户建立紧密的合作关系,并与清华大学、浙江大学等众多知名高校和研究机构密
270、切开展产学研合作,持续推进产业上下游生态的建设。海光信息:国产海光信息:国产 CPU 及及 DCU 领军企业领军企业 海光信息成立于 2014 年,专注于高端处理器的研发与设计,是国内重要的高性能 CPU 及DCU 产品供应商。公司拥有实力雄厚的研发团队,截止 2022 年底,研发技术人员达到1283 人,其中硕士及以上学历人员占比达 75.84%,多数核心研发人员具有二十年以上高端处理器研发经验,为公司不断取得产品突破打下坚实基础。公司 CPU 产品包括 7000 系列、5000 系列和 3000 系列,分别面向高端、中低端、工作站和边缘计算服务器市场。公司 CPU 产品基于市场主流 X86
271、 指令集,具有成熟丰富的应用生态,当前在浪潮、联想、新华三、同方等多家国内知名服务器厂商产品中得到广泛应用。此外,海光信息 DCU 系列产品深算一号已经实现商业化应用,深算二号正处于研发阶段。2022 年公司实现营业收入 51.25 亿元,同比增长 121.83%;归母净利润 8.04 亿元,同比增长 145.65%。登临科技(未上市):致力于开发兼容现有生态的创新通用人工智能芯片登临科技(未上市):致力于开发兼容现有生态的创新通用人工智能芯片 登临科技成立于 2017 年,是一家专注于自主创新,构建基于 GPGPU 核心技术的云端 AI计算平台公司。公司核心团队成员来自图芯、S3、英伟达、A
272、MD、阿里等全球知名的芯片设计公司。公司产品采取兼容 CUDA 的技术路线,保证客户业务可继承现有生态上的投入,且相比传统 GPU 在 AI 计算上性能和能效均有明显提升,大大降低外部带宽的需求,显著降低客户成本。2020 年 6 月公司 Goldwasser 系列产品在台积电 12nm 工艺上FullMask 流片成功。2021 年 7 月,百度飞桨适配登临 GPU+系列芯片,加速 AI 应用落地;同年 11 月公司 Goldwasser 系列产品已实现量产。作为国内首个实现规模化商业落地的GPU 企业,登临首款基于 GPU+的创新 AI 加速器-Goldwasser(髙凛)已规模化运用在边
273、缘至云计算的各个应用场景,成功填补国内高性能 GPGPU 领域技术、产品及商业方面的空白。今年,登临的新一代 Goldwasser(高凛)产品针对基于 Transformer 的网络和生成式 AI 类大模型的应用在性能有大幅提升,对标国际大厂的产品有明显的能效比和性价比的优势。近日,登临完成新一轮融资,将进一步夯实其产品与研发能力。此前,登临科技更是获得了多家产业、知名头部企业及基金的投资。中科驭数(未上市):国内领先中科驭数(未上市):国内领先 DPU 芯片提供商芯片提供商 中科驭数成立于 2018 年,聚焦于专用数据处理器的研发与设计,主要产品包括 DPU 芯片、超低时延 DPU 网卡、数
274、据查询加速 DPU 卡等产品和解决方案。公司为国内较早进行DPU 芯片研发的团队,创始人兼 CEO 鄢贵海博士、联合创始人兼 CTO 卢文岩博士及首席科学家李晓维博士均来自中科院计算所,在芯片架构领域有 20 年的技术积累。目前公司已累计申请 157 项发明专利,其中 83 项已获得授权。中科驭数 DPU 芯片基于自主研发的 KPU 芯片架构,目前公司已经完成了四类 KPU 芯片架构设计,包括 1)KPU-Swift 针对网络协议处理设计;2)KPU-Conflux 针对时间序列/大数据分析设计;3)KPU-Trusy针对安全领域处理设计,4)KPU-FlexFlow 针对智能计算设计,并在网
275、络、数据库等应用领域积累了 80 余类功能核。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。63 科技 科技 摩尔线程(未上市):核心团队产业经验丰富,商业化应用持续加速摩尔线程(未上市):核心团队产业经验丰富,商业化应用持续加速 摩尔线程创立于 2020 年 10 月,专注于研发设计全功能 GPU 芯片及相关产品,支持 3D图形渲染、AI 训练与推理加速、超高清视频编解码、物理仿真与科学计算等多种组合工作负载。创始人张建中为原英伟达全球副总裁、中国区总经理,公司团队其它成员来自微软、英特尔、AMD、ARM 等海外芯片巨头,具有深厚产业经验。2021 年 11 月,摩尔线程宣布首
276、颗国产全功能 GPU 芯片研制成功,开创了国产 GPU 研发速度的先河。公司已发布两颗基于其 MUSA 统一系统架构打造的多功能 GPU 芯片“苏堤”和“春晓”,以及系列GPU 软件栈与应用工具,并已迅速将多款 MTT S 系列显卡推向市场,覆盖桌面、边缘和数据中心等多个场景。2022 年公司联合数家 OEM 合作伙伴斩获大型央企和大型国有银行台式机采购大单,上万台搭载摩尔线程 MTT S 系列显卡的国产 PC 将广泛应用于我国电信、金融行业的数字办公业务场景,将显著提升国产 PC 的应用体验。2023 年 5 月,公司宣布了一系列新产品与技术更新,涵盖数字办公、娱乐与创作、AI 与云计算以及
277、元宇宙等GPU 重要应用场景,标志着摩尔线程为用户提供的高品质、易部署、创新性应用型解决方案取得重大进展。天数智芯(未上市):专注高端通用天数智芯(未上市):专注高端通用 GPU 设计,赋能千行百业实现算力升级设计,赋能千行百业实现算力升级 天数智芯于 2018 年成立并启动 7 纳米通用并行计算芯片(通用 GPU)设计,是中国领先的通用 GPU 高端芯片及超级算力系统提供商。公司研发实力雄厚,研发团队人数占比 80%以上,既包含一批行业经验超过 20 年的世界级技术专家,同时也包含一大批具备 5-15 年业界经验的高执行力技术菁英。2020 年 12 月,公司成功点亮国内第一款 7nm 云端
278、训练通用 GPU 产品天垓 100,并于 2021 年 3 月正式对外发布,2021 年三季度规模量产,是国内第一家实现通用 GPU 量产的硬科技企业。2022 年 12 月,公司通用 GPU 推理产品智铠 100 发布,标志着天数智芯成为云边协同、训推组合的完整通用算力系统全方案提供商。2022 年 7 月,公司宣布完成超 10 亿元人民币的 C+及 C+轮融资,本轮融资将助力公司量产 AI 推理芯片智铠 100,开发第二三代 AI 训练芯片天垓 200 及 300。高云半导体(未上市):三大产品系列聚焦民用高云半导体(未上市):三大产品系列聚焦民用 FPGA 市场市场 高云半导体成立于 2
279、014 年,是一家专业从事现场可编程逻辑器件(FPGA)研发与设计的国产集成电路设计公司,提供从芯片、EDA 开发软件、IP、开发板到整体系统解决方案的一站式服务。公司核心研发成员来自于 Lattice,Cadence 等全球知名公司,拥有国内极少数全面掌握 FPGA 设计与产业化核心技术的研发团队,高云半导体致力于 FPGA 芯片的正向开发,坚持自主创新及国产替代并行策略,目前已形成小蜜蜂、晨熙、Arora V 三大产品序列,迄今已发布百余款芯片,产品均拥有自主知识产权。高云半导体于 2015 年一季度推出第一款 55nm 工艺 400 万门的中密度 FPGA 芯片和第一版 EDA 工具云源
280、软件;2016 年第一季度顺利推出国内首颗 55nm 嵌入式 Flash SRAM 的非易失性 FPGA 芯片;2017 年产品进入市场应用,开始批量出货;2019 年,发布国内第一颗 FPGA 车规芯片,FPGA 芯片年出货量突破千万片级别;2022 年高云发布其最新工艺节点,即采用 22nm SRAM 工艺的晨熙家族第 5 代(Arora V)高性能 FPGA 产品,除了工艺的优势,还集成了自研的核心模块,包括高速 SerDes 模块,MIPI 硬核,为通讯及AI 运算加速的全新架构的 DSP 模块等。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。64 科技 科技 墨芯人工智
281、能(未上市):稀疏计算推动大模型发展墨芯人工智能(未上市):稀疏计算推动大模型发展 墨芯成立于 2018 年,总部位于中国深圳,在上海、北京、硅谷设有办公室。拥有来自学界与业界的全球顶级创始团队,团队包括卡内基梅隆大学 AI 科学家、世界顶尖半导体公司(Intel、Marvell 和 Oracle 等)核心高量产芯片研发团队的核心成员,深耕行业二十余年,具有数十款产品、超 50 亿主流芯片量产经验。墨芯人工智能是稀疏化计算引领者,致力于提供云端和终端 AI 计算平台和服务。在最近的 MLPerf 评测中,墨芯凭借软硬协同的稀疏计算技术在 ResNet50 模型上蝉联冠军。其 S40 计算卡以
282、127,375 FPS 获得单卡算力全球第一;S30 计算卡以 383,520 FPS 算力获整机 4 卡算力全球第一。墨芯 AI 计算卡系列是基于其稀疏计算 AI 芯片 12nm Antoum,性能超越了 4nm 工艺的 GPU,展现出稀疏计算的强大优势。稀疏计算能够为 AI 大模型带来数十倍的加速性能,有力推动 AI 在各行业、各领域的广泛应用。智多晶微电子(未上市):国产智多晶微电子(未上市):国产 FPGA 领军企业,从领军企业,从 LED 走向工控、通讯广阔市场走向工控、通讯广阔市场 智多晶微电子成立于 2012 年,专注可编程逻辑电路器件技术的研发,并为系统制造商提供高集成度、高性
283、价比的可编程逻辑器件、可编程逻辑器件 IP 核、相关软件设计工具以及系统解决方案。智多晶的创始人及核心团队由国际知名 FPGA 公司产品开发骨干以及学术界资深 FPGA 科研人员组成。依托多年来建立的业内领先 EDA 软件、FPGA 硬件设计能力,公司已经实现了 55nm-28nm 工艺 FPGA 的规模量产,并已开始 14nm 产品的研发工作,逻辑资源覆盖 5K、12K、25K、30K、100K,相关产品广泛应用于 LED 视频处理、工业控制、通讯、消费电子等领域,并针对性推出了内嵌 Flash、SDRAM 等集成化方案产品。主要产品包括 Seagull 1000 系列(0.162um 工艺
284、)、Sealion 2000 系列(55nm 工艺)、Seal 5000 系列(28nm 工艺)。此前,智多晶已完成多轮融资,过往投资方包括盛宇投资、超越摩尔资本、临芯投资、深创投、宏燚投资、华御投资、华天科技、龙鼎投资等。云天畅想(未上市):云天畅想(未上市):先进算力服务提供商,从云游戏向先进算力服务提供商,从云游戏向 AI 计算拓展计算拓展 云天畅想创立于 2016 年,专注于为数字世界提供端到端的先进算力基础设施及服务,应用于云游戏、AIGC、元宇宙、自动驾驶等实时交互、海量算力需求应用场景,下游客户包括运营商、云服务商、互联网公司、游戏开发商及政企单位等超百家企业机构。云天畅想是中国
285、三大运营商 5G 边缘云解决方案的主要供应商,同时在图形图像计算领域拥有领先的市场地位,为多个爆款游戏提供算力解决方案和云服务;云天畅想也在不断拓展应用场景和海外市场,在虚拟现实、AI 推理和自动驾驶等领域提供算力解决方案,并于今年 6月与沙特卓越控股公司签约了战略合作协议,推广海外业务落地。作为创新技术驱动的硬核科技公司,云天畅想搭建了全球化的创始团队,拥有来自 Intel、SIE、腾讯的创新基因,成员均为 GPU 芯片、服务器架构、3D 渲染、视频云计算、通讯网络等领域专家。公司员工近 400 人,其中 80%为技术研发人员,并在中国深圳、北京和日本东京设有研发中心。2023 年 5 月,
286、云天畅想宣布获得数千万美元的 C+轮融资,巩固了行业领跑者的地位。光通信产业链相关公司:长光华芯、源杰科技、云岭光电、苏州熹联、天光通信产业链相关公司:长光华芯、源杰科技、云岭光电、苏州熹联、天孚通信、中际旭创孚通信、中际旭创 长光华芯:光耀中国芯,激光芯片国产化领军者长光华芯:光耀中国芯,激光芯片国产化领军者 深耕高功率半导体激光芯片,纵向深耕高功率半导体激光芯片,纵向+横向打造激光产业“中国芯”。横向打造激光产业“中国芯”。公司系国内少数具备高功率激光芯片量产能力的企业之一,实现了高功率激光芯片的国产化与进口替代。根据公司招股书测算,2020 年公司占国内高功率半导体激光芯片市场份额的 1
287、3.4%,位居国产厂商第一位,2021 年公司已实现 30W 单管芯片量产,技术实力全球领先。在产品布局上,一方面,公司通过纵向延伸打通芯片器件模组半导体激光器产业链条,实现了在高功率单管系列、高功率巴条领域的全产业链布局;另一方面,公司基于高功率半导体激光芯片的技术优势以及设计和量产能力,切入 VCSEL 及光通信芯片赛道,已建立了 VCSEL产品包含外延生长、条形刻蚀、端面镀膜、划片裂片、特性测试、封装筛选和芯片老化的完整工艺线。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。65 科技 科技 源杰科技:国内领先的高速率激光芯片厂商,源杰科技:国内领先的高速率激光芯片厂商,ID
288、M 模式铸就核心竞争力模式铸就核心竞争力 优质高速率半导体光芯片供应商,进入国内外知名运营商网络供应体系。优质高速率半导体光芯片供应商,进入国内外知名运营商网络供应体系。公司聚焦于光芯片行业,主要产品包括 2.5G、10G、25G 及更高速率激光器芯片系列产品等。经过多年研发和产业化积累,公司已拥有多条覆盖 MOCVD 外延生长、光栅工艺、光波导制作等全流程自主可控的生产线,实现向客户 A1、海信宽带、中际旭创、博创科技、铭普光磁等国际前十大以及国内主流光模块厂商批量供货,产品最终应用于中国联通、中国电信、AT&T 等国内外知名运营商网络中,已成为国内领先的光芯片供应商。由于下游客户在选择光芯
289、片产品时需要经过较长的验证过程,公司率先进入供应商体系,建立了较高的客户资源壁垒。低速率激光芯片市场实现差异化,并率先攻克高速率激光芯片市场。低速率激光芯片市场实现差异化,并率先攻克高速率激光芯片市场。国内光芯片市场中,2.5G、10G 激光器芯片市场国产化程度较高,但不同波段应用场景不同,工艺难度差异大,公司凭借长期技术积累为光模块厂商提供全波段、多品类的产品,同时提供更低成本的集成方案,实现差异化竞争,据 CIC,公司在 2.5G 及以下光芯片市场中发货量占比为 7%;25G 及更高速率激光器芯片国产化率低,公司凭借核心技术和 IDM 模式,率先攻克技术难关,打破国外垄断,并实现 25G
290、激光器芯片系列产品大批量供货。云岭光电:致力于成为国际一流的光芯片供应商云岭光电:致力于成为国际一流的光芯片供应商 专注中高端光芯片市场,拥有自主知识产权。专注中高端光芯片市场,拥有自主知识产权。武汉云岭光电有限公司由国际领先的芯片专家团队与华工科技于 2018 年 1 月共同发起设立,承载近 20 年的技术探索与市场实践,专注于中高端光通信半导体光芯片产品,是拥有完全自主知识产权,具备全流程生产能力的IDM 光芯片企业。云岭光电主营业务为 2.5G/10G/25G 全系列激光器(LD)和探测器(PD)光芯片及封装类产品。公司建有光芯片研制平台,拥有 MOCVD 材料生长,器件工艺制备,和后端
291、测试封装的完整生产线,从海外引入具有国外光芯片大厂多年工作经验的核心技术团队,掌握10G/25G 高速率光收发芯片设计、高质量材料生长、关键工艺制备、和封装测试等核心技术。公司具备年产芯片 7500 万颗、TO 7200 万只的生产能力,致力于成为世界一流的光芯片企业,为全球光通信企业提供优质全系列光芯片。苏州熹联:以硅光科技构建数字化未来苏州熹联:以硅光科技构建数字化未来 高效能光通信解决方案提供商。高效能光通信解决方案提供商。苏州熹联光芯微电子科技有限公司成立于 2020 年 7 月 20日,由半导体、硅光及金融等领域多位资深专家领头,致力于打造硅光领先技术平台,努力推动全球 5G、数据中
292、心及数字化进程。为了快速实施在硅光领域的战略布局,熹联光芯于 2021 年 10 月份完成了对德国 Sicoya GmbH 的 100%股权并购。公司以苏州为总部,以上海和柏林研发中心为双引擎,结合国内制造基地强大的量产实力,将快速实现推动硅光科技的发展。全球硅光科技引领者,占据高端。全球硅光科技引领者,占据高端。公司在硅光领域有 10 多年的技术积累和储备,拥有硅光领域完整的自有设计器件 IP 组合,同时拥有光电一体全集成化的硅光芯片技术。公司拥有完善的专利体系,核心技术能够涵盖多种产品和应用领域,在无线通信、数据通信(光引擎&光模块)、服务器网络、智能驾驶、激光雷达、生物传感等多领域拥有技
293、术储备和商业合作。目前在全球范围拥有 50 多项硅光授权发明专利,同时还有 50 多项正在申请中。公司目前拥有多家全球行业一流的客户,均在稳定的批量交货和商业技术合作中。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。66 科技 科技 天孚通信:光器件整体解决方案引领者天孚通信:光器件整体解决方案引领者 致力成为光器件领域引领者,打造全球光网络优质链接。致力成为光器件领域引领者,打造全球光网络优质链接。苏州天孚光通信股份有限公司(简称 TFC)2005 年成立,是业界领先的光器件整体解决方案提供商。公司于 2015 年登陆中国创业板,目前已成为光器件细分行业龙头企业。产品广泛应用于
294、光纤通信及光学传感,智能汽车,生命科学等领域。天孚通信致力于成为引领光器件领域发展的国际一流企业,为全球光网络畅通提供优质连接。公司上市以来总营收实现稳定增长,光有源器件板块营收总体高增长。公司上市后加码研发投入力度,不断推出新的产品,拉动营收增长。2020 年公司在光引擎研发方面取得重大进展,光有源板块同比增长迅速,推动公司整体营收与净利润快速提升。中际旭创:全球光模块行业龙头,中际旭创:全球光模块行业龙头,800G 产品有望快速上量产品有望快速上量 全球光模块龙头,全球光模块龙头,AI 带动公司带动公司 800G 产品快速上量。产品快速上量。公司集高端光通信收发模块的研发、设计、封装、测试
295、和销售于一体,在云数据中心领域,为客户提供 100G、200G、400G和 800G 的高速光模块,在电信领域,为客户提供 5G 前传、中传和回传光模块以及应用于骨干网和核心网传输光模块等高端整体解决方案。据 Lightcounting 统计的全球光模块市场份额排名,公司与 II-VI 市场份额并列全球第一位,体现出公司卓越的技术研发能力、成本及交付能力优势。2023 年以来,以 ChatGPT 为代表的 AIGC 应用驱动数据流量持续增长,加速光模块向 800G 及以上产品迭代,据 Lightcounting,800G 光模块产品有望拉动新一轮行业增长,公司作为 800G 光模块的主力供应商
296、有望深度受益。云计算产业链相关公司:道客云、鹏云网络、云计算产业链相关公司:道客云、鹏云网络、StreamNative 道客云:国内领先容器云平台和企业级解决方案提供商道客云:国内领先容器云平台和企业级解决方案提供商 国内领先的企业级国内领先的企业级 PaaS 解决方案提供商。解决方案提供商。DaoCloud 道客科技(未上市)成立于 2014 年底,是一家容器云平台和企业级解决方案提供商,提供包括持续集成、持续交付、发布管理、镜像托管等在内的基于容器技术的全套开发运维生命周期服务,同时与国内外 IaaS云计算平台对接,实现云端应用从开发、测试、部署到运维的完整容器化工具链。高兼容技术适配不同
297、业务类型,深耕垂直行业打造标杆项目。高兼容技术适配不同业务类型,深耕垂直行业打造标杆项目。公司产品技术实现跨云和大规模部署,同时兼容适配各种开发方向,能够适应各行业企业的架构特点。成立迄今,公司已在金融科技、先进制造、智能汽车、零售网点、城市大脑等多个领域深耕,标杆客户包括交通银行、浦发银行、上汽集团、东风汽车、海尔集团、金拱门(麦当劳)。鹏云网络:深耕云原生存储,技术能力领先鹏云网络:深耕云原生存储,技术能力领先 十年深耕软件定义存储,国内率先大规模商用。十年深耕软件定义存储,国内率先大规模商用。鹏云网络(未上市)创立于 2012 年,创始团队集结了来自亚马逊、EMC 等全球知名企业专家骨干
298、,并率先在国内开展大规模商用软件定义存储产品。历经近十年发展,鹏云网络凭借完全自主知识产权,成为行业领先的软件定义分布式智能存储软件与服务提供商。鹏云网络云原生存储平台 ZettaStor HASP,通过自研的高性能用户态文件系统、跨异构存储多副本冗余保护、存储资源统一灵活编排、与容器平台紧密集成的四大核心技术特性,满足了容器化应用对存储系统性能及可靠性的多样化需求。目前鹏云网络服务对象已经广泛覆盖电信、金融、能源、政府、军队、公安、制造业、医疗、教育、科研等 20 多个行业,主要客户包括华泰证券、辽宁移动、福建联通、中国电子 32 所、航天科技、CEIEC、龙江环保等,客户服务网络遍布全国
299、31 个省市及自治区。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。67 科技 科技 StreamNative:云原生批流融合数据平台:云原生批流融合数据平台 围绕围绕 Apache Pulsar,StreamNative 打造下一代批流融合数据平台。打造下一代批流融合数据平台。StreamNative(未上市),成立于 2019 年,由 Apache Pulsar 与 Apache BookKeeper 创始团队成员组建,围绕 Apache Pulsar 打造开源云原生批流融合数据平台,助力企业挖掘实时数据价值。公司为 Apache Pulsar 的商业化公司,也是全球唯一的
300、Apache Pulsar 技术原厂,不断推动Apache Pulsar 和 BookKeeper 社区与生态建设。作为大数据平台基础设施组件,流数据平台的重要性日益提升。作为大数据平台基础设施组件,流数据平台的重要性日益提升。Apache Pulsar 是下一代云原生分布式消息流平台,集消息、存储、轻量化函数式计算为一体,采用计算与存储分离架构设计,支持混合公有云部署,可覆盖 AWS、Microsoft Azure、Google 云、阿里云等全球范围的主流云计算平台,是云原生时代解决实时消息流数据传输、存储和计算的最佳解决方案。目前项目和社区正在快速发展,已有众多国内外大型互联网和传统行业公
301、司采用 Pulsar,使用案例分布在人工智能、金融、电信运营商、直播与短视频、物联网、零售与电子商务、在线教育等多个行业。随着未来数据基础设施的普及,流数据的接收、存储和计算会成为企业的共性需求,流数据平台作为基础软件的重要地位日益提升。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。68 科技 科技 AI 赋能百业:产业变革的奇点赋能百业:产业变革的奇点 自 OpenAI 发布 ChatGPT 掀起 AI 浪潮以来,国内外科技巨头陆续在 AI 大模型领域加快布局,人工智能也因此催生出许多创新性领域以及传统领域多个环节的变革,有望实现下游应用百花齐放。其中,企业服务领域企业服务领域
302、,AI 赋能办公行业生产力、沟通和协作工具,持续带动生产效率及沟通协作效率提升;汽车领域汽车领域,AI 模型的引入增强了智能驾驶在感知、预测和决策方面的能力,加速无人驾驶的应用与落地;工业领域工业领域,AI 加码助力工业研发、生产、管理及服务等全环节,极大解放生产力,加速工业智能化水平;金融领域金融领域,AI 在银行、保险、资管、投研、投顾等多个细分领域正在落地或拥有潜在落地场景,帮助金融机构降本增效。我们认为,伴随技术和各大模型的升级迭代,AI 将赋能百业,催生出更多环节的创新型变革。AI+企业服务:赋能生产力企业服务:赋能生产力/沟通沟通/协作工具协作工具 数字化时代,办公行业生产力、沟通
303、、协作工具不断演进,持续带动生产效率及沟通协作数字化时代,办公行业生产力、沟通、协作工具不断演进,持续带动生产效率及沟通协作效率提升效率提升。以 Microsoft 365 Copilot 为例,Copilot 通过把 GPT-4 提供的内容生成功能,与存储在 Graph 数据库中的企业数据,以及 Word、Powerpoint、Excel、Outlook、Teams 等办公工具相结合,提供包括内容(包括文字、图片)创作、数据分析、辅助决策等一系列新功能,功能丰富度上,远超 notion.ai 等现有的基于 AI 的办公软件。图表图表82:数字化办公行业发展历程数字化办公行业发展历程 资料来源
304、:各公司官网、华泰研究 AI+生产力工具:强化分析、总结、创作能力生产力工具:强化分析、总结、创作能力 融合融合 GPT 能力的新版能力的新版 Word 可与用户一起写作、编辑、总结、创作。可与用户一起写作、编辑、总结、创作。据微软 Copilot 365发布会,融合 GPT 能力的 Word 已具备自动生成、自动排版、摘要生成、常见问答生成等功能。1)自动生成:)自动生成:根据指定的内容、指定的话题、指定的文档/表格,自动生成文本内容;2)自动排版:)自动排版:根据用户的展示需求,对文本进行指定参考风格的自动美化;3)摘要)摘要生成:生成:根据已有文本生成大纲/摘要/问答等总结性内容,并支持
305、二次编辑;4)风格改写:)风格改写:根据已有文本进行语言风格、文本类型改写,适应不同的业务场景。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。69 科技 科技 图表图表83:Word 中的中的 Copilot 能够根据指令自动生成文件初稿能够根据指令自动生成文件初稿 资料来源:微软官网、华泰研究 融合融合 GPT 能力的新版能力的新版 Excel 可帮助用户分析数据趋势、实现数据可视化。可帮助用户分析数据趋势、实现数据可视化。根据发布会展示,融合 GPT 能力的 Excel 已具备自动数据分析、基于自然语言的深度加工、预测、图表可视化等功能。1)自动数据分析:)自动数据分析:根据
306、已有数据进行自动化数据分析并给出关键信息总结;2)深度分析:)深度分析:根据用户的深入分析需求,新建总结的 sheet 和图表并展示加工后的数据,并支持自然语言优化;3)深度预测:)深度预测:根据用户需求进行数据的预测并自动生成新的工作区域;4)图表可视化:)图表可视化:根据数据与自然语言描述,自动生成符合用户期待的可视化图像。融合融合 GPT 能力的新版能力的新版 PowerPoint 可根据用户的想法自动生成演示文稿。可根据用户的想法自动生成演示文稿。根据发布会展示,融合 GPT 能力的 PowerPoint 已具备演示文稿自动生成、设计美化、note 生成等功能:1)演示文稿自动生成:)
307、演示文稿自动生成:根据已有文稿自动生成 PPT 初稿(可指定页数、图片);2)自然)自然语言设计美化:语言设计美化:根据用户需求,使用自然语言命令来增减页数、调整布局、重新格式化文本和制作动画;3)Note 生成:生成:根据用户需求/页面变化自动生成 PPT 的备注内容,方便用户进行 PPT 演示讲解。图表图表84:PowerPoint 中的中的 Copilot 能够根据指令自动生成幻灯片能够根据指令自动生成幻灯片 资料来源:微软官网、华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。70 科技 科技 AI+沟通工具:实现自动沟通管理,赋能不同场景的内容生成沟通工具:实现自
308、动沟通管理,赋能不同场景的内容生成 融合融合 GPT 能力的新版能力的新版 Outlook 可帮助用户对邮件进行管理、汇总、分类、内容起草。可帮助用户对邮件进行管理、汇总、分类、内容起草。根据发布会展示,融合 GPT 能力的 Outlook 已具备邮件要点总结、邮件撰写、风格转换等功能:1)要点总结:)要点总结:根据用户需求自动总结(未读/长/多线程)邮件的核心要点,帮助用户处理纷繁复杂的邮件信息,并支持移动端;2)邮件撰写:)邮件撰写:根据用户简短的自然语言提示/其他邮件提取,自动生成格式化邮件初稿,协助邮件撰写;3)风格转换:)风格转换:根据用户需求,快速切换邮件的语气、风格,满足不同的工
309、作场景需求。AI+协作工具:自动总结协作工具:自动总结+跟进跟进+回顾,扩大团队协作智能辅助的外延回顾,扩大团队协作智能辅助的外延 融合融合 GPT 能力的新版能力的新版 Teams 可帮助用户实时总结会议的相关信息、推进任务的执行进度。可帮助用户实时总结会议的相关信息、推进任务的执行进度。根据发布会展示,融合 GPT 能力的 Teams 已具备会议要点总结、流程跟进、纪要生成、智能回顾等功能:1)要点总结:)要点总结:根据用户需求自动总结会议要点,各参会人员观点、共识、分歧等内容;2)流程跟进:)流程跟进:根据用户需求提供“未解决问题提示”、“会议议程创建”等工作内容;3)纪要生成:)纪要生
310、成:自动生成会议纪要、要点和任务模板;4)智能回顾:)智能回顾:根据用户 follow 的会议自动生成回顾邮件,并根据用户提问解答会议相关内容。图表图表85:Teams 中的中的 Copilot 能够实时跟进会议进度并提供相关信息能够实时跟进会议进度并提供相关信息 资料来源:微软官网、华泰研究 融合融合 GPT 能力的能力的 Business Chat,是企业内部的智能搜索与协同办公平台。,是企业内部的智能搜索与协同办公平台。根据发布会展示,最新推出的 Business Chat 实现了企业内部的搜索与知识管理,可以看作是工作场景下的 ChatGPT:1)跨应用总结:)跨应用总结:根据用户需求
311、自动构建企业内部资料的知识图谱(文档、会议、邮件等)并提供要点总结;2)业务流程安排与分析:)业务流程安排与分析:根据用户需求自动化创建业务流程,为用户提供高可执行性的工作安排;3)业务问答:)业务问答:根据用户提问与需求,自动生成符合企业智识的解决方案与措施建议,实现特定问题的智能化解答。AI+汽车:汽车:AI 大模型加速无人驾驶发展大模型加速无人驾驶发展“无人驾驶”看上去很美,但一直很难落地。“无人驾驶”是最早被提出的人工智能应用场景之一,谷歌、苹果、特斯拉、百度等海内外科技巨头从 2016 开始就积极布局,但直到现在仍很难实现大规模商用落地。我们认为,1)多维度数据的获取和标注成本高,2
312、)对小概率事件的决策准确度和人类还存在较大差距,3)事故时法律权责归属不明确,是制约其发展的部分原因。我们认为,以我们认为,以 ChatGPT 和和 SAM 为代表的为代表的 AI 大模型的引入(自大模型的引入(自动标注、算法迭代),从行业整体层面可以加速智能驾驶的量产落地。动标注、算法迭代),从行业整体层面可以加速智能驾驶的量产落地。本节,我们参考特斯拉 FSD,将自动驾驶模型算法按流程分为感知(Perception,识别道路和物体)、预测(Prediction,预测周围车辆和行人的行为)、执行(Planning,控制车辆速度方向等)三个阶段进行分析。免责声明和披露以及分析师声明是报告的一部
313、分,请务必一起阅读。71 科技 科技 图表图表86:AI+汽车:感知决策执行三阶段汽车:感知决策执行三阶段 资料来源:特斯拉官网,华泰研究 感知层面:物体识别、占用空间识别感知层面:物体识别、占用空间识别 感知是模型的起点。感知是模型的起点。我们暂且将感知分为两大类:1)物体识别:)物体识别:对物体的种类进行识别(区分车辆、行人、道路等);2)占用空间识别:)占用空间识别:无需判断物体种类,仅对是否占用前方空间进行判断,典型代表是特斯拉的占用网络模型(Occupancy Network)。简言之,我简言之,我们认为在感知层面,大模型的引入可以:们认为在感知层面,大模型的引入可以:1)通过自动标
314、注大幅降低模型识图成本;)通过自动标注大幅降低模型识图成本;2)通)通过占用网络模型等提高模型“举一反三”的能力。过占用网络模型等提高模型“举一反三”的能力。#1 物体识别:自动标注大幅降低系统成本物体识别:自动标注大幅降低系统成本 数据体量与复杂度提升,标注需求增加。数据体量与复杂度提升,标注需求增加。随着智能驾驶的成熟,激光雷达 3D 点云信息、摄像头采集的 2D 图像信息的增加,道路场景的丰富,自动驾驶的数据标注类型与数量在不断增加。人工标注成本高、效率低,自动标注是人工标注成本高、效率低,自动标注是 AI 大模型赋能智能驾驶最直接的应用,能大幅降大模型赋能智能驾驶最直接的应用,能大幅降
315、低数据标注的成本。低数据标注的成本。当前智能驾驶领域以人工识别为主。根据恺望数据产品项目副总裁张鹏在 2023 年 2 月的介绍,目前 95%的数据标注是以人工标注为主,机器标注为辅。而据2023 年 4 月毫末智行 DriveGPT 发布会显示,目前要得到诸如车道线、交通参与者、红绿灯等信息,行业人工标注的成本约每张图为 5 元,毫末 DriveGPT 的成本为 0.5 元。我们认为科技公司大模型训练成熟后,单张图自动标注的边际成本趋近于 0,平均成本有望进一步下降。以特斯拉为例,特斯拉 FSD 通过自动标注优化系统效率,通过“多重轨迹重建”技术自动标注车辆行驶轨迹。目前在集群中运行 12
316、小时即可完成 10,000 次行驶轨迹标注,取代500 万小时人工标注。通过机器的自我训练,减少了人力标注成本高、效率低的问题。自动标注技术成熟,人工标注团队规模缩小。2021 年人工标注团队为 1000 多人,2022 年该团队裁员 200 余人。占用空间识别:“不认识”物体,亦不影响行车决策占用空间识别:“不认识”物体,亦不影响行车决策 国内新势力与智驾解决方案供应商多使用基于二维点格(pixel)的鸟瞰图(BEV,Bird Eye View)模型,使用矩形框(bonding box)来框定物体,进行物体识别。特斯拉创新特斯拉创新性的提出了占用网络(性的提出了占用网络(Occupancy
317、Network)模型,无需训练模型“认识”物体,只需)模型,无需训练模型“认识”物体,只需判断物体是否占用前方空间,即可进行行车决策。判断物体是否占用前方空间,即可进行行车决策。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。72 科技 科技 占用网络(Occupancy Network)模型,将三维空间点格化,每个 3D 点格即为一个 voxel,在 8 颗摄像头采集到的平面信息基础上添加时间、空间信息,即可输出:1)该 3D 点格被占用的概率(例如:区分静止的车辆/运动的车辆);2)语义信息(Semantics output;例如:区分静止的车辆/路牙);3)表面信息(Surf
318、ace output;例如:坡度、泥坑、积水)。占用网络相较于之前在障碍物识别和行驶路径预判方面有了明显提升,具体来看:占用网络相较于之前在障碍物识别和行驶路径预判方面有了明显提升,具体来看:1)通过占用网络,只需分析物体的空间内栅格占用情况,不需对物体本身进行检测识别,)通过占用网络,只需分析物体的空间内栅格占用情况,不需对物体本身进行检测识别,规避传统视觉算法中对物体识别失败带来的车祸风险。规避传统视觉算法中对物体识别失败带来的车祸风险。尤其在面对静态障碍物、与周围环境类似的障碍物、训练模型中未涵盖到的障碍物时,可以更大程度的规避风险。图表图表87:占用网络对双节公车动态(蓝色)静态(红色
319、)精确识别占用网络对双节公车动态(蓝色)静态(红色)精确识别 图表图表88:占用网络对“不认识”的静态障碍物的识别占用网络对“不认识”的静态障碍物的识别 资料来源:特斯拉官网,华泰研究 资料来源:特斯拉官网,华泰研究 2)占用网络解决传统视觉算法难题及还原道路坡度和曲率,辅助行车更优决策)占用网络解决传统视觉算法难题及还原道路坡度和曲率,辅助行车更优决策。通过计算几何空间的体积占用率,可以在占用网络中精确地还原物体本身形状。占用网络塑造的3D 世界还可以还原道路的坡度和曲率,让车辆根据实际道路情况提前预测加速和减速判断,进一步提高行车安全性和舒适度。图表图表89:通过占用网络可以检测多厢卡车甩
320、尾问题通过占用网络可以检测多厢卡车甩尾问题 图表图表90:占用网络可以还原道路坡度和曲率占用网络可以还原道路坡度和曲率 资料来源:特斯拉官网,华泰研究 资料来源:特斯拉官网,华泰研究 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。73 科技 科技 预测层面:道路拓扑关系预测、障碍物预测预测层面:道路拓扑关系预测、障碍物预测 预测分两种,一种是道路信息的预测(预测分两种,一种是道路信息的预测(lane prediction),另一种是障碍物的预测。),另一种是障碍物的预测。道路信息:基于大模型勾勒拓扑关系,摆脱对高精度地图的依赖道路信息:基于大模型勾勒拓扑关系,摆脱对高精度地图的依
321、赖 道路信息的预测包含:1)语义信息,2)连接信息。最初 autopilot 使用的传统 link prediction,只能预测比较简单的道路,比如高速公路,基于此已经可以实现 LCC 等 L2 的功能。要实现更加复杂的城市道路的拓扑关系预测,需要基于:1)高精度地图;或者 2)导航地图+神经网络预测。特斯拉基于基础的硬件配置(摄像头+导航地图)+自创的language of lanes 模型,来通用化地勾勒整个世界的道路信息。车道线网络模型辅助进行车辆行驶路径的预判。车道线网络模型辅助进行车辆行驶路径的预判。车道线网络模型通过车道语言(Luange of Lanes)可以在车载摄像头及地图
322、数据所形成的图像上,将道路数据标注成一系列节点并赋予不同语义(起始点、延续点、交叉点、终点等),并通过组合不同语义的“单词”形成“句子”,自动勾绘出一条条车道线。这套“车道语言”,可以在小于 10 毫秒的延迟内,思考超过 7500 万个可能影响车辆决策的因素,运行这套语言的功耗只需要 8W,较大的提升了特斯拉 FSD 对车辆行驶路径的预判能力。图表图表91:特斯拉车道线网络模型示意特斯拉车道线网络模型示意 图表图表92:特斯拉对可能的行进轨迹进行预判并绘制成车道线特斯拉对可能的行进轨迹进行预判并绘制成车道线 资料来源:特斯拉官网,华泰研究 资料来源:特斯拉官网,华泰研究 物体信息:基于大模型预
323、测动静信息,为行驶决策提供支持物体信息:基于大模型预测动静信息,为行驶决策提供支持 物体的预测包含动、静概率信息,再结合道路拓扑信息,为最终的形式决策提供支持。特斯拉的 Occupancy Network 中红色代表长期静止的车辆,黄色代表临时停车,蓝色代表运动,可对物体的动静状态及其概率进行预测。在一些特殊情景下,例如左转摄像头被左侧大货车遮挡,无法判断左向是否有来车,模型会自动生成虚拟车辆,假设左侧有被遮挡的来车,基于此进行决策,更贴近人类驾驶员的思维模式。基于占用网络可以预测道路上其它物体的行进轨迹。基于占用网络可以预测道路上其它物体的行进轨迹。通过对栅格进行光流估计来检测物体运动并预测
324、其短期行进运动轨迹,并标注上丰富的语义(红色静止,蓝色加速,黄色减速等),从而在特斯拉车辆行驶过程中规划最优行驶路径进行避让,保证驾驶安全性。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。74 科技 科技 图表图表93:特斯拉左转摄像头被遮挡,模型假设左侧有来车特斯拉左转摄像头被遮挡,模型假设左侧有来车 图表图表94:特斯拉对闯红灯车辆、道路阻碍者的预判特斯拉对闯红灯车辆、道路阻碍者的预判 资料来源:特斯拉官网,华泰研究 资料来源:特斯拉官网,华泰研究 决策层面:交互搜索模型,影子模式,虚拟仿真决策层面:交互搜索模型,影子模式,虚拟仿真 决策的难点在于多方的交互与对路权的博弈,计
325、算的效率是至关重要的。决策的难点在于多方的交互与对路权的博弈,计算的效率是至关重要的。目前业内普遍在50-100 毫秒之间完成一轮计算。受车端算力与计算效率的限制,目前决策层面的模型可分为两类:1)Rule base 的模型(类似 if 程序):提前设定了某些情境下的反应机制,例如左转选择超车还是避让前车,更大程度的保障了安全性,但一定程度上也较为僵化,不符合“老司机”的驾驶习惯。2)特斯拉的交互搜索的模型:基于神经网络模型,自主搜索目标和备选方案(maneuver trajectory),query base 的条件下可缩短单次计算时间至 100 微秒。此外,影子模式、虚拟仿真的引入也有望提
326、高驾驶的智能化程度和流畅度。此外,影子模式、虚拟仿真的引入也有望提高驾驶的智能化程度和流畅度。1)影子模式是指大模型在车辆后台运行,模拟决策而不实际控车,不会对驾驶者及车辆产生任何干扰。但是在有异常场景或模型与人类驾驶员的决策不同时,触发数据采集及回传,对机器做出的决策进行“纠正”。2)虚拟仿真是指通过 AI 自动生成道路场景、车辆、行人等信息,对模型进行训练。特斯拉的模拟仿真可以通过建立一个虚拟世界,以提供现实中难以获得/数据量不足的情景,目前特斯拉可以在 5min 内自动生成一个复杂路口 3D 虚拟场景。进一步,还可以通过道路中的场景,创建更多变种场景,帮助决策模型进行不断优化迭代。免责声
327、明和披露以及分析师声明是报告的一部分,请务必一起阅读。75 科技 科技 AI+工业:工业:ChatGPT 引领引领 AI 赋能工业,工业智能化水平或将加速提升赋能工业,工业智能化水平或将加速提升 ChatGPT 引领引领 AI 大模型突破,随着大模型突破,随着 AI 技术和工业领域深度融合,工业技术和工业领域深度融合,工业 AI 应用或将迎来应用或将迎来高速发展窗口。高速发展窗口。随着 2023 年 3 月 OpenAI 正式发布大型自然语言处理模型 ChatGPT-4,同月微软将其旗下 Azure 云服务 Azure、Microsoft365 办公软件、Bing 搜索引擎、Power Pla
328、tform 低代码开发平台等产品与 ChatGPT 深度融合,生成式 AI 在文本、代码、视频等一系列应用领域的前景逐渐明晰。AI 大模型大模型+工业所形成的核心产品、方案与服务,是工业所形成的核心产品、方案与服务,是 AI 赋能工业的主要载体。赋能工业的主要载体。其中主要包括四个方面,按层级关系可分为基础软硬件、智能工业装备、自动化与边缘系统、平台/工业软件与方案。其中,基础软硬件是指各类芯片/计算模块、AI 框架、工业相机等相对通用的软硬件产品;智能工业装备是指融合智能算法的机器人、AGV(自动导向机器人)、机床等工业生产制造设备;自动化与边缘系统是指融合了智能算法的工业控制系统;平台/工
329、业软件与方案则是指各类具有 AI 能力的工业互联网平台及其衍生解决方案和应用服务。以上应用通过识别类应用、数据建模优化类应用及知识推理决策类应用三种模式被广泛用以上应用通过识别类应用、数据建模优化类应用及知识推理决策类应用三种模式被广泛用于工业研发、生产、管理及服务等全环节。于工业研发、生产、管理及服务等全环节。图表图表95:“AI+工业”应用场景工业”应用场景 资料来源:各公司官网,华泰研究 AI 大模型大模型+工业研发设计:增进芯片设计、工业研发设计:增进芯片设计、CAD 设计及仿真优化效率设计及仿真优化效率 AI 大模型大模型+工业软研发设计软件将加快推动工业数字化进程,极大解放生产力。
330、工业软研发设计软件将加快推动工业数字化进程,极大解放生产力。工业数字化进程大致始于 20 世纪 50-70 年代,以图形化、自动化为代表性技术,将计算机设计、调度能力首次带融入工业生产领域,替代人工操作,解放生产力的同时提升生产效率,这一时期的典型代表有 50-60 年代出现的 CAD 软件,60-70 年代出现的 CAE、EDA、PLC软件,极大地提升了生产效率。在当前时间点,AI 与工业研发设计软件积极相融合,借助云计算,进行超大数据量的推理训练,进一步优化软件工作效率,简化研发流程和复杂度,帮助企业提升效率的同时还能优化成本结构。AI 大模型大模型+EDA 将成为未来芯片设计软件的主流趋
331、势,大幅加快芯片研发设计的进度。将成为未来芯片设计软件的主流趋势,大幅加快芯片研发设计的进度。2023 年 4 月 7 日,美国 Cadence 公司推出 Allegro X AI technology新一代系统设计技术。本技术依托于 Allegro X Design Platform 平台,利用云端的扩展性实现物理设计自动化,在提供 PCB 生成式设计的同时,确保设计在电气方面准确无误,并可用于制造。本项新技术可自动执行器件摆放、金属镀覆和关键网络布线,并集成了快速信号完整性和电源完整性分析功能。使用本技术的生成式 AI 功能,客户可以简化系统设计流程,将 PCB 设计周转时间缩短至原来的十
332、分之一。国内方面,概伦电子在 3 月的业绩会上表示正在关注AI+EDA 软件的发展机遇,并将未来在该领域加大投入。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。76 科技 科技 AI 大模型大模型+CAE 有效提升仿真效率,优化代码生成能力。有效提升仿真效率,优化代码生成能力。CAE(computer aided engineering),指用计算机辅助求解分析复杂工程和产品的结构力学性能,以及优化结构性能等,把工程(生产)的各个环节有机地组织起来,其关键是将有关的信息集成,使其产生并存在于工程(产品)的整个生命周期。CAE 软件可作静态结构分析,动态分析;研究线性、非线性问题;
333、分析结构(固体)、流体、电磁等。因为 CAE 已经在工业领域得到了多年的大量应用,积累了大量的数据,可以作为生成式 AI 的训练数据来源。未来基于生成式 AI 的新型 CAE 建模将基于历史设计数据,通过大数据挖掘不同影响因素之间的关系,而不再过分追求从物理理论生成模型,从而能大幅提升建模的效率。AI 大模型赋能创成式设计,生成式大模型赋能创成式设计,生成式 AI 未来或可为未来或可为 CAD 软件提供大量可供选择的模型。软件提供大量可供选择的模型。创成式设计是一种利用 AI 技术根据一系列系统设计来自主创建优化设计的 3D CAD 功能。其特点在于能在设计师给定的约束条件和目标下,借助 AI 的能力来快速生成满足要求的目标模型,供设计师从中选择合适的模型进行进一步的设计优化,从而提升设计效率,降低设计成本。从目前来看,生成式 AI 在严谨理性的数学和逻辑领域的能力相对文字领域仍然比较有限