上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

海外科技行业中美科技巨头的AI大模型竞赛:GPT裂变时刻-230406(36页).pdf

编号:121162 PDF 36页 2.51MB 下载积分:VIP专享
下载报告请您先登录!

海外科技行业中美科技巨头的AI大模型竞赛:GPT裂变时刻-230406(36页).pdf

1、请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 2023.04.06 GPT 裂变时刻裂变时刻 中美科技巨头的中美科技巨头的 AI 大模型竞赛大模型竞赛 梁昭晋梁昭晋(分析师分析师) 证书编号 S0880523010002 本报告导读:本报告导读:A AI I 产业临界点产业临界点来临,中美科技来临,中美科技巨头巨头军备竞赛全面启动,算力需求具备高确定性军备竞赛全面启动,算力需求具备高确定性。摘要:摘要:A AI I 技术发展多时,深度学习时代技术发展多时,深度学习时代 A AI I 浪潮开启浪潮开启。AI 研究领域最早源自于 1943 年神经元模型

2、诞生,并于 1956 年达特茅斯会议正式确立;随后 AI 技术先后进入专家系统时期(1970s-1980s)、机器学习时期(1990s-2000s),目前 AI 领域已迈入深度学习时期(2010s-至今),深度神经网络、自然语言处理成为深度学习时代的技术内核,大型科技公司和研究院开启深度学习热潮,共同推动 AI 产业迎来变革。全球科技巨头争相布局,全球科技巨头争相布局,A AI I 技术成果不断涌现技术成果不断涌现。海外科技巨头 Open AI、谷歌、Meta、苹果、亚马逊、微软、英伟达、Adobe、特斯拉布局AI领域多时,Open AI GPT-4,微软365 Copilot,英伟达 DGX

3、 Cloud、Adobe Firefly 等旗舰产品落地推动产业变革;国内科技巨头腾讯、百度、字节跳动、华为、阿里巴巴等持续研发投入,百度文心一言率先推出,腾讯“混元”AI 大模型、华为“盘古”AI 大模型、阿里达摩院“通义”大模型等有望加速引爆 AI 热潮。G GPTPT 裂变时刻裂变时刻,中美科技巨头军备竞赛全面启动中美科技巨头军备竞赛全面启动。AI 产业发展至今,其发展进程已经达到了大量行业应用革新的临界点,在绘画、设计、办公、广告和硬件设施等为代表性领域,产生了广泛的应用和显著的影响。AI 大模型方向上,受限于财力要求、硬件设施、人才储备等门槛存在,小型人工智能厂商或初创企业难以追赶,

4、AI 大模型将成为中美科技巨头间的军备竞赛。投资建议:投资建议:A AI I 产业发展进入临界点,中美科技产业发展进入临界点,中美科技巨头巨头竞赛下算力需求竞赛下算力需求确定性高。确定性高。通过系统回顾 AI 技术发展历程、主要科技巨头 AI 布局及其主要成果,我们认为 AI 产业发展的临界点已经来临,应用变革层出不穷,在财力要求、硬件设施、人才储备、舆论关注、商业模式冲击等要素影响下,AI 大模型将成为中美科技巨头间的军备竞赛,算力层面的需求确定性最高,推荐标的联想集团(0992.HK),受益标的英伟达(NVDA.O)、微软(MSFT.O)。风险提示:风险提示:AI 技术迭代进度不及预期;应

5、用落地进度不及预期;国内 AI 供应链波动风险等。评级:评级:增持增持 交易数据 行业主要上市公司行业主要上市公司 市值市值(百万、美元百万、美元)A 13,197 B 678,089 C 2,137,711 市值合计市值合计 2,828,898 感谢秦和平对本报告的贡献感谢秦和平对本报告的贡献 相关报告 海外行业专题(海外行业专题(美国美国)行业名称行业名称 海外科技海外科技 股票股票研究研究 证券研究报告证券研究报告 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 2 of 36 目目 录录 1.AI 技术发展历程.4 1.1.早期 AI 时期(

6、1943 1960s).4 1.1.1.神经元模型.4 1.1.2.图灵测试.4 1.1.3.达特茅斯会议.4 1.1.4.符号主义.5 1.1.5.感知机与神经网络.5 1.2.专家系统时期(1970s 1980s).6 1.2.1.专家系统.6 1.2.2.反向传播法.7 1.3.机器学习时期(1990s 2000s).7 1.3.1.监督学习.7 1.3.2.非监督学习.8 1.3.3.强化学习.9 1.4.深度学习时期(2010s-至今).9 1.4.1.深度神经网络.9 1.4.2.自然语言处理.10 1.4.3.GPU 加速计算.11 2.主要科技公司及其 AI 技术成果.12 2

7、.1.Open AI.12 2.1.1.GPT 系列.12 2.1.2.Codex 系列.15 2.2.谷歌.15 2.2.1.Bard 聊天机器人.15 2.2.2.Bert 预训练模型.16 2.2.3.DeepMind 实验室.16 2.3.脸书(Meta).17 2.3.1.FAIR(Meta AI).17 2.4.苹果.18 2.4.1.虚拟助手 Siri.18 2.4.2.Core ML、ARKit,Face ID.19 2.5.亚马逊.19 2.5.1.AWS 云计算平台.19 2.5.2.Alexa 智能语音助手.20 2.6.微软.21 2.6.1.新必应(New Bing)

8、.21 2.6.2.Microsoft 365 Copilot.21 2.6.3.Azure 云服务平台.22 2.7.英伟达.22 2.7.1.DGX Cloud.22 2.7.2.图形处理器(GPU).23 2.8.Adobe.24 2.8.1.Adobe Firefly.24 2.8.2.Adobe Sensei.24 2.9.特斯拉.25 BVbWkZkWeYjYrYsXuV9PbPaQtRmMnPsRiNpPnRlOoOoR8OnNyRMYtQwONZsOmM 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 3 of 36 2.9.1.自动

9、驾驶.25 2.10.腾讯.25 2.10.1.混元大模型.25 2.10.2.太极机器学习平台.26 2.11.百度.26 2.11.1.文心一言.26 2.11.2.飞桨.27 2.12.字节跳动.27 2.12.1.KubeRay 项目.27 2.12.2.推荐算法、自然语言处理技术和计算机视觉技术.28 2.13.华为.28 2.13.1.“盘古”大模型.28 2.13.2.Ascend 系列芯片.29 2.13.3.ModelArts 开发平台.29 2.14.阿里巴巴.30 2.14.1.达摩院.30 2.14.2.通义大模型.30 2.14.3.阿里云 ET 大脑,菜鸟网络,天猫

10、精灵.31 3.AI Critical Mass 已至.31 3.1.AI 发展达到 Critical Mass.31 3.2.AI 已成为中美科技巨头间的军备竞赛.31 4.投资建议.33 5.风险提示.33 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 4 of 36 1.AI 技术发展历程技术发展历程 1.1.早期早期 AI 时期时期(1943 1960s)1.1.1.1.1.1.神经元模型神经元模型 神经元模型的诞生为神经元模型的诞生为 AIAI 研究领域的出现奠定了研究领域的出现奠定了理论理论基础。基础。1943 年,心理学家沃伦麦卡洛克

11、(Warren McCulloch)和沃尔特皮茨(Walter Pitts)首次提出了被称为神经元计算的数学模型(Neural Model),该模型将生物神经元的工作原理简化为二进制阈值逻辑,这也成为了后续AI 学科最重要的基础之一。1.1.2.1.1.2.图灵测试图灵测试 图灵测试图灵测试印发印发机器人机器人是否是否能具备人类的智能能具备人类的智能思考思考。1950 年,英国计算机科学家艾伦麦席森图灵在其论文Computing Machinery and Intelligence中提出了著名的图灵测试实验(Turing Test),其目的是通过自然语言对话来判断计算机是否能产生与人无法区分的

12、智能,这一实验也引发了大规模的思考:机器人能够否过编程语言从而具有人智。图图 1 1:艾伦艾伦麦席森麦席森图灵进行图灵测试实验图灵进行图灵测试实验 数据来源:PHYS.ORG 1.1.3.1.1.3.达特茅斯会议达特茅斯会议 达特茅斯会议达特茅斯会议确立确立 AIAI 成为一个成为一个研究领域研究领域。1956 年,John McCarthy在达特茅斯会议(Dartmouth Conference)上首次提出 AI 概念,标志着 AI 从此作为了一个独立的研究领域的诞生。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 5 of 36 图图 2 2:达

13、特茅斯会议主要参加成员:达特茅斯会议主要参加成员 数据来源:CSDN 1.1.4.1.1.4.符号主义符号主义 早期早期 A AI I 主要学派主要学派符号主义是一种基于逻辑推理的智能模拟方法。符号主义是一种基于逻辑推理的智能模拟方法。符号主义(Symbolic)也被称为是逻辑主义,是早期 AI 的主要学派,其认为人类认知的基本单位是具有意义的表示符号,而智能则体现在符号的表示和运算过程中。1955 年,艾伦纽厄尔(Allen Newell)和哈伯特西蒙(HerBert A.Simon)首次提出了逻辑理论机(Logic Theorist)的概念,这是第一个依赖符号操作的 AI 程序。1959

14、年,他们进一步开发了通用问题求解器(General Problem Solver)程序,该程序能通过递归分解方式解决复杂问题。受到符号主义研究的启发,约瑟夫维森鲍姆(Joseph Weizenbaum)于 1966 年开发了 ELIZA,这是一个能模拟心理治疗师并根据用户描述提供诊疗意见的程序。图图 3 3:ElizaEliza 系统对话效果系统对话效果 数据来源:Thought Catalog 1.1.5.1.1.5.感知机与神经网络感知机与神经网络 感知机是感知机是 AI 经典理论神经网络的经典理论神经网络的早期早期代表模型。代表模型。1958 年,美国心理学家弗兰克罗森布拉特首次引入了感

15、知机模型(Perceptron),作为早期神经网络理论(Neural Network)的典型模型,它尝试模拟生物神经元的功能来进行实验。然而,感知机仅具有单层神经元结构,并进行 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 6 of 36 线性分类,但难以处理复杂的非线性问题。在感知机的基础上,后续神经网络研究发展出多层结构和更强的表达能力,能应对更复杂的非线性问题。通过优化训练算法和权重调整,神经网络实现了更有效的数据拟合和分类。图图 4 4:感知机与神经网络模型感知机与神经网络模型 数据来源:知乎 1.2.专家系统时期专家系统时期(1970s

16、1980s)1.2.1.1.2.1.专家系统专家系统 专家系统尝试利用过往经验来专家系统尝试利用过往经验来把计算机把计算机程序训练成某一个领域的程序训练成某一个领域的专家。专家。专家系统(Expert System)作为 AI 研究起步阶段的重要代表,是一种模拟人类具体领域专家的知识和经验的智能计算机程序,通过推理模型,解决那些需要人类专家才能处理的复杂问题,其核心是知识库(领域专家的知识和经验)和推理机(根据知识库内容对问题进行求解)。1970 年代初,斯坦福大学 AI 研究团队开发了 DENDRAL 系统,利用质谱数据预测分子结构,成为历史上第一个专家系统。它证明了计算机程序在解决实际问题

17、上具有专业知识吸收能力。在长时间研发后,斯坦福大学的另一个研究团队于 1972-1978 年间开发了 MYCIN 系统,它根据病人症状和实验室检查结果提供专家级别的诊断和治疗建议,成功率达到69%,与当时美国临床医生平均水平相当。1980 年代,麻省理工学院开发了 XCON 系统,主要应用于计算机领域,实现高效计算机系统配置。随后,众多科技公司也开始开发自己的专家系统,如 IBM 的 Watson 知识图谱回答系统,Cyc 大型知识库,以及西门子的 PSS SINCAL 电力系统规划分析系统。图图 5 5:专家系统原理专家系统原理 数据来源:Google Site 海外行业专题海外行业专题 请

18、务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 7 of 36 1.2.2.1.2.2.反向传播法反向传播法 反向传播法是目前用于训练多层感知机的最优算法,为近代深度学反向传播法是目前用于训练多层感知机的最优算法,为近代深度学习的发展奠定了基础。习的发展奠定了基础。反向传播法(Backpropagation)是目前用于训练多层感知机(MLP)的最常用且最有效的优化算法,它的工作原理是通过计算损失函数相对于每个权重的梯度来调整神经网络的权重与配置,从而提高模型预测的准确性。基于 Bryson 的“最速下降法”和 Werbos初步提出的“反向传播”概念,1986 年,David R

19、umelhart、Geoffrey Hinton 和 Ronald J.Williams 在他们的论文中系统地介绍了反向传播算法,并将其应用于多层神经网络的训练,这一算法彻底解决了单层感知器无法求解非线性分类的问题,大大提高了当时AI模型的预测性能。目前卷积神经网络(CNN)、循环神经网络(RNN)和长短时记忆网络(LSTM),都是基于反向传播法的基础上对数据进行训练。反向传播法后续被大量用于语音识别、图像处理、计算机视觉和自然语言处理的应用中,它也为近代深度学习的发展奠定了基础。图图 6 6:反向传播中的四层神经网络模型反向传播中的四层神经网络模型 数据来源:Towards Data Sci

20、ence 1.3.机器学习时期机器学习时期(1990s 2000s)1.3.1.1.3.1.监督学习监督学习 监督学习通过带标签数据进行模型训练,主要涵盖决策树、支持向监督学习通过带标签数据进行模型训练,主要涵盖决策树、支持向量机、随机森林三种。量机、随机森林三种。监督学习(Supervised Learning)是一种对事先带标签数据进行模型训练,从而来优化模型的机器学习范式。目前,苹果的 Siri,谷歌的语音助手助手和亚马逊的 Alexa 等智能语音助手,都是通过监督学习算法进行语音识别,奈飞、TikTok 和亚马逊为用户提供个性推荐,也是使用了监督学习算法。目前主要的监督学习有三种,1

21、1)决策树()决策树(Decision TreeDecision Tree):):1986年,罗思昆(Ross Quinlan)提出 ID3 决策树算法,它在基于树结构分类和回归方法的基础上,通过递归划分数据集,从而根据数据的特征值进行预测,后续的决策树算法还包括 C4.5 和 CART 等;2 2)支持向量机)支持向量机(Support Vector MachineSupport Vector Machine):):1995 年,Cortes 和 Vapnik 提出经典的支持向量机理论,它在解决小样本、非线性识别中的性能更高。支持向量机本质上是一种基于最大间隔原则的分类方法,尽可能通过找到一

22、个最优的超平面,使我们对与样本或数据进行分类;3 3)随机森林()随机森林(Random Random ForestForest):):随机森林由何天琴(Tin Kam Ho)于 1995 年首次提出,并由Leo Breiman 和 Adele Cutler 进一步发展,它本质上是一种基于多个决 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 8 of 36 策树的集成式算法,通过对多个决策树模型进行训练,从而进一步提高预测性能。图图 7 7:亚马逊亚马逊 AlexaAlexa 产品形态产品形态 数据来源:亚马逊 Alexa 1.3.2.1.3.2.

23、非监督学习非监督学习 非监督学习通过未标记的数据挖掘潜在结构及关系,涵盖非监督学习通过未标记的数据挖掘潜在结构及关系,涵盖 K K-均值均值聚类和主成分分析两种聚类和主成分分析两种。非监督学习(Unsupervised Learning)与监督学习正好相反,它不依赖预先标记的训练数据。在这种学习方法中,模型试图从未标记的数据中发现潜在的结构、模式和关系。由于模型不依赖于已知答案或特定目标,非监督学习通常被用于数据探索、聚类、降维和特征提取等任务。目前,主要的非监督学习有两种:1 1)K K-均值聚类(均值聚类(K K-means means Clustering AlgorithmCluste

24、ring Algorithm):):K-均值聚类由麦昆(MacQueen)在 1967 年提出,它通过将数据集划分为 K 个聚类,提高了文本挖掘和市场细分的准确性,例如,谷歌就在他的新闻服务谷歌 News 中使用 K0 均值聚类方法,对新闻主题进行聚类;2 2)主成分分析()主成分分析(PCAPCA):):主成分分析在霍特林(Hotelling)在 1933 年的论文被首次提出,它是一种将目标现行降维的方法,以此可以提取样本的主要成分,它在减少数据维度的同时能够保留样本的大部分信息,多被用于高维数据降维,人脸识别和数据压缩等方面。目前人脸识别技术(Eigenfaces)就是通过主成分分析对人脸

25、提取特征来识别用户,它被广泛用于安全监控和身份验证系统。图图 8 8:监督学习与非监督学习监督学习与非监督学习原理对比原理对比 数据来源:CSDN 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 9 of 36 1.3.3.1.3.3.强化学习强化学习 强化学习算法基于环境反馈而行动,包括强化学习算法基于环境反馈而行动,包括 Q Q-L Learearningning 和和 DeDeep ep Q Q-NetworkNetwork 两种。两种。强化学习(Reinforcement Learning)是一种强调基于环境反馈而行动,从而达到预期目的的机器

26、学习的范式,主要的强化学习算法有两种:1 1)Q Q 学习(学习(Q Q-learninglearning):Q-learning 是一种基于值函数的强化学习方法,由 Watkins 和 Dayan 在 1992 年的论文中首次被提出,通过建立动作值函数 Q,让机器人能够根据当前环境做出最优的动作。Q-learning 被广泛用于机器人控制和路径规划领域,如 KUKA 公司就使用了这一算法,实现了对机器臂的智能控制;2 2)Deep QDeep Q-NetworkNetwork(DQNDQN):Volodymyr Mnih 等人在 2015 年的论文中首次提出 DQN 方法,这是一种将深度学习

27、和 Q-learning 相结合的强化学习方法,通过使用卷积神经网络(CNN)求得近似的 Q 函数。DeepMind 旗下的 AlphaGo 和AlphaZero 便是是用来这一算法,它们可以在游戏领域取得超越人类的表现,AlphaGo 战胜围棋世界冠军李世石就是这一算法最好的证明。图图 9 9:20162016 年年 AlphaGoAlphaGo 战胜李世石战胜李世石 数据来源:BBC 1.4.深度学习时期深度学习时期(20102010s s-至今)至今)大型科技公司及研究院纷纷入局,大型科技公司及研究院纷纷入局,A AI I 热潮开启未来已至热潮开启未来已至。2012 年,AlexNet

28、网络在 ImageNet 竞赛上取得突破性成果;2017 年,中国香港Hanson Robotics 技术开发公司开发的类人机器人索菲亚;2020 年,马斯克提出脑机接口(Brain-Computer Interface),谷歌旗下 DeepMind的 AlphaFold2、中国 76 个光子的量子计算机原型“九章”等等,以及如今的 Open AI 的 GPT 系列,谷歌的 Bard,Adobe Firefly,Midjourney,英伟达的 GPU 技术与 DGX Cloud,都是爆发式深度学习时代下的产物,大型科技公司和研究院深度学习热潮开启,叠加 ChatGPT 装载 GPT-4,AI

29、的未来已至。1.4.1.1.4.1.深度神经网络深度神经网络 深度神经网络能够提取预料复杂的特征和模式,卷积神经网络和循深度神经网络能够提取预料复杂的特征和模式,卷积神经网络和循环神经网络是两种代表。环神经网络是两种代表。深度神经网络(Deep Neural Networks)是一类具有多层结构的神经网络,能够提取预料开更为复杂的特征和模式,卷积神经网络、循环神经网络是它的两种典型。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 10 of 36 卷积神经网络(CNN):CNN 是一种专门用于处理二维数据信息的神经网络,由目前任职于 Facebook

30、 的计算机科学家杨立昆(Yann LeCun)首次提出。杨立昆在收到生物处理过程和神经元连接模式的启发后创立了 CNN,其本质上是卷积层通过卷积操作实现局部感受视野的特征提取。CNN 不仅可以通过局部特征识别整体,还能够大幅减少网络参数,从而降低过拟合风险。CNN 常被用于图像分类,目标检测和人脸识别。AlexNet在 ImageNet 图像分类比赛中取得突破性成果,FaceNet 的人脸识别技术和 YOLO 的实施物体检测功能,都是基于 CNN 的产物。图图 1010:AlexNetAlexNet 在在 ImageNetImageNet 上上取得取得显著的成绩显著的成绩 数据来源:Pinec

31、one 1.4.2.1.4.2.自然语言处理自然语言处理 自然处理典型分支包括词嵌入和自然处理典型分支包括词嵌入和 T Transformerransformer,G GPTPT 系列、系列、谷歌谷歌 BertBert 等均使用了等均使用了 TraTransformernsformer 结构。结构。自然语言处理(Natural Language Processing)旨在让计算机程序能够理解人类语言,根据语言指令生成结果,是当前最热门的的 AI 领域研究方向。目前自然语言处理有两种比较典型的分支:1 1)词嵌入()词嵌入(Word Word EmbeddingEmbedding):):词嵌入本

32、质上是一种将词汇映射到低维向量空间的技术,它对于理解人类语言语义和语法关系,进而处理自然语言有着重大意义。主流的词嵌入算法目前有谷歌 的 Word2Vec,GolVe 和 FastText,它们多被用于词义消歧,语义相似度计算和文本分类;2 2)TransformerTransformer:Hinton 等人在 2006 年的论文中初步阐述了 Transformer 这一概念,而谷歌在2017年发布的文章 Attention Is All You Need 中,Transformer正式进入大众视野。Transformer 本质上是一种基于自我注意力(Self-Attention)处理序列数据

33、的新网络结构,从而放弃了 RNN 或 CNN。Transformer 在发布之初就创造了多项纪录,后续在自然语言处理任务中,也取得了许多突破性的成果。当前讨论最热烈的 GPT 系列,便是基于 Transformer decoder 部分的生成式预训练模型,除此之外,谷歌 Bert 也使用了这一架构。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 11 of 36 图图 1111:标准标准 TranTransformersformer 模型架构模型架构 数据来源:量子位 1.4.3.1.4.3.GPUGPU 加速计算加速计算 G GPUPU 是是 A

34、AI I 发展引擎,英伟达发展引擎,英伟达 G GPUPU 系列系列已成为已成为深度学习大模型的发深度学习大模型的发展基石。展基石。GPU 技术的发展,将成为未来 AI 发展的引擎,其重要性主要包括:1 1)高性能计算:)高性能计算:与传统的 CPU 相比,GPU 有用更多的计算核心,因此能够处理大量的多并行计算任务,在此基础上,深度学习模型中的许多计算都可以高度并行化,从而显著提高深度学习模型的训练效率。例如,在使用英伟达 GPU 的 Tesla V100 GPU 训练 ResNet-50 模型,训练速度相较以往提高了 10 倍;2 2)软件库:)软件库:英伟达公司针对性地推出了深度学习相关

35、的软件库,如 CUDA,cuDNN,在使用这些有针对性的软件库后,能够进一步提高深度学习模型的计算效率,如 cuDNN 可以使卷积神经网络操作速度提高三倍。英伟达旗下的 GPU,是目前市场上算力最高,性能最强的硬件处理器,可以说是 GPU 系列是当今 AI 深度学习大模型发展的基石。图图 1212:英伟达英伟达 DGX CloudDGX Cloud 数据来源:Venturebeat 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 12 of 36 2.主要科技公司及其主要科技公司及其 AI技术成果技术成果 2.1.Open AI 2.1.1.2.1.

36、1.GPTGPT 系列系列 GPTGPT 系列采用“预训练系列采用“预训练+微调”训练策略,目前已微调”训练策略,目前已在在 A AI I 领域获广泛领域获广泛应用应用。GPT 系列采用了 Hinton 等人在 2006 年提出的一种自然语言处理模型 Transformer 的 decoder 部分,并采用了一种经典的神经网络训练策略:“预训练+微调”的训练策略。在预训练阶段,基于庞大的无标签文本语料库训练一个生成式语言模型,从而获得对于语言的深层次理解;在微调阶段,使用后续数据继续训练模型,以应对不同的运用场景。ChatGPT 系列功能强大,目前已成为最被大众所熟知与认可的 AI 聊天机器人

37、,同时许多科技公司陆续开展了跟进项目,与 ChatGPT 系列进行深度融合,令 GPT 系列成为目前 AI 领域的发动机与方向盘。GPT 系列的第一个模型 GPT-1 于 2018 年 6 月发布,它使用了一个12-layer 的 Transformer 解码器,并进行了一个包含 4500 万词条的书籍语料库进行预训练,此时只能完成一些基本的自然语言处理任务,如文本生成,分类和语言翻译功能。;2019 年 2 月,Open AI 发布了 GPT系列的第二个模型 GPT-2,在沿用一代网络结构设计的基础上,升级了模型参数和数据集的规模,并使用了一个 24-layer 的 Transformer

38、解码器,相比前代,GPT-2 最大的进步在于可以生成更加连贯、流畅、逻辑性更强的文本结果,甚至可以根据对话者的要求修改自己的回答文本风格。2020 年 5 月,GPT-3 正式推出,GPT-3 拥有着前所未有的 1750亿个参数量级的 Transformer 解码器,并在一个包含 5700 亿词条的多源文本语料库上进行了预训练。GPT-3 的能力已经可以做到以人类的流利程度撰写散文,其生产的文本质量之高,让 31 名 Open AI 研究人员在 GPT-3 2020 年 5 月 28 日的原始论文中强调了 GPT-3 的潜在风险。2020年 9 月 22 日,微软宣布获得 GPT-3 的“独家

39、”使用权;其他人仍可以使用公共 API 获取输出,但只有微软能够访问 GPT-3 的底层模型。图图 1313:GPTGPT 系列系列在在 TransformerTransformer 架构上进行了优化架构上进行了优化 数据来源:Improving Laguage Understanding by Generative Pre-training GPTGPT 系列高速迭代,系列高速迭代,G GPT 3.5PT 3.5、G GPT 4PT 4 及及 ChaChat tGPTGPT 插件插件先后发布先后发布推动推动人工智能人工智能高速发展高速发展。2022 年至今,GPT 系列进入高速迭代期。202

40、2 年 1月,Open AI 宣布 GPT-3.5 诞生,它是基于 GPT-3 迭代后的微调版本,也被称为 InstructGPT,GPT-3.5 相比前代,加入了人类反馈强化学习(RLHF)的概念,在人类反馈强化学习下,人类向机器学习算法提供反馈,这些反馈可以用于调整模型。这种方法可以解决监督和非监督学习 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 13 of 36 的局限性,即机器学习算法从仅标记或未标记的数据中学习的能力有限。2022年11月,Open AI正式发布ChatGPT,它是一款建立在GPT系列(LLM)的基础之上的 AI 聊天机

41、器人,并进一步强化了 RLHF 的作用:从用户的问答中收集数据,从而更好地训练和微调 ChatGPT 本身。与前身InstructGPT 相比,ChatGPT 有害性和欺骗性的回应概率被大幅降低,令搭载了 GPT-3.5 的 ChatGPT 成为 AI 领域最成功的产品。2023 年 3 月 14 日,GPT-4 横空出世,是 Open AI 扩大深度学习成果的一项里程碑式的杰作。GPT-4 是一款大型的多模态模型(接受图像和文本输入,发出文本输出),其最大的进步在于,GPT-4 相比 GPT-3.5,能够表现得更可靠,回答更有创造力,并且能够产出更细致的回答,具体来说:1.GPT-4 大幅提

42、高了应对专业学术考试的表现,如通过了模拟律师考试,并且成绩排在考生前 10%;2.跨语言 MMLU 的识别精度提升;3.视觉输入能力的加入,从此 ChatGPT 也可以额接受图像的输入并生成回答。Open AI以极高地速度迭代优化GPT系列。短期内接连发布的GPT-4和 ChatGPT Plugins,推动这 AI 领域飞速发展并进一步打开潜在的应用空间。图图 1414:GPTGPT 系列测试结果对比系列测试结果对比 数据来源:Open AI G GPTPT-4 4 参数规模达到参数规模达到 G GPTPT-3 3 的的 6 6 倍以上,不同领域的熟练程度超越倍以上,不同领域的熟练程度超越人

43、类 表 现。人 类 表 现。基 于 微 软 发 布 的 Sparks of Artificial General Intelligence:Early experiments with GPT-4报告,从推理、规划、解决问题、抽象思维、理解复杂思想、快速学习和经验学习能力等角度足以发现,GPT-4 相较历代具有显著进步。从参数规模上来看,GPT-4有超过 1 万亿个参数,是 GPT-3(1750 亿个参数)的 6 倍以上,根据预测,以这个速度继续发展下去,或许在 5 年之内,GPT 系列就能达到甚至超过人类大脑的规模(170 万亿个参数)。除此之外,微软具体测试了 GPT-4 在语言、数学、编

44、程、视觉、医学、法律和心理学领域的表现水平,结果演示,GPT-4 已经有超越人类水平的表现。GPT-4 能够在不同领域表现出高度熟练程度,理解复杂概念,并将多个领域的技能和概念统一起来。研究结果表明,GPT-4 不仅 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 14 of 36 能学习不同领域和风格的通用原则和模式,还能以创造性的方式将其结合。图图 1515:GPTGPT-4 4 可以根据需求编写可以根据需求编写 3D3D 游戏游戏 数据来源:Sparks of Artificial General Intelligence:Early expe

45、riments with GPT-4 2023 年 3 月 23 日,Open AI 再次带来了 ChatGPT 的重量级更新ChatGPT Plugins,它是的 ChatGPT 通过 Open AI 插件可以连接到第三方应用程序,使得 ChatGPT 在某一具体领域的功能被大幅增强,并且被允许执 行更广泛 的操作。目前 解锁的官 方插件 有:Expedia,FiscalNote,Instacart,KAYAK,Klarna,Milo,OpenTable,Shopify,Slack,Speak,Wolfram,and Zapier。以 Expedia 和 Wolfram 为例,加载 Expe

46、dia 后,ChatGPT 在为用户生成旅行计划后,可以直接通过Expedia 进行预订机票、酒店行为;加载 Wolfram 后,ChatGPT 近期饱受诟病的复杂数学问题解决能力将被大幅提升。图图 1616:ChatGPT ChatGPT PluginsPlugins 目前可支持目前可支持多个多个插件插件 数据来源:Open AI ChatGPT 目前也仍存在一定的风险和问题,例如有害的建议,错误的代码提示或者是不准确的信息,而目前 Open AI 的做法是:在 RLHF训练过程中加入额外的安全奖励信号,通过训练模型拒绝此类内容的请求来减少有害信息的输出。截止目前,除 ChatGPT 本身的

47、功能,大量的科技公司也开发了新的 AI 技术,如 Adobe Firefly,Microsoft 365 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 15 of 36 Copilot,与 GPT 系列深度融合,从办公,设计,绘画领域,开启了一场史无前例的生产力革命。GPT 系列,无疑将成为当前时代一切领域发动机。2.1.2.2.1.2.CodexCodex 系列系列 C Codexodex 是一款是一款 N NLPLP 模型,定位弥补模型,定位弥补 G GPTPT-3 3 代码生成缺陷。代码生成缺陷。Codex 最初的设计理念,是作为弥补 GPT

48、-3 在代码生成方面的不足而开发的另一款 NLP 模型。借助 Codex,即使是非专业的程序员,也可以轻松编写代码,这大大降低了编写程序的门槛。随着后续的发展,Coedex 迭代为了微软 365 Copilot,不仅能作为编程助手,更加入了微软办公软件助手功能,从而极大地提高了当前办公效率,或将在不久后引发一场世界范围的办公室革命。2021 年 6 月,基于早期 Codex 的早期版本和原型,Open AI 与 GitHub合作推出了 GitHub Copilot,作为一款 AI 技术下的代码补全工具,以技术预览的形式暂时向公众开放。2021 年 8 月,Open AI 正式发布了Codex,

49、宣布了这一款全新的高效编程助手模型,Codex 专注于优化 GPT系列在程序设计和代码生成上的不足,根据用户输入的文本 prompt 提供编程建议,从而帮助开发者更好地编写代码。2.2.谷歌谷歌 2.2.1.2.2.1.BardBard 聊天机器人聊天机器人 谷歌谷歌内测内测 BardBard,提供自然语言问答服务。,提供自然语言问答服务。为了与 Open AI 的 ChatGPT抗衡,谷歌在 3 月 21 向一部分内测用户推出了一款实验性、对话式的聊天 AI 服务Bard,相比于 ChatGPT,Bard 使用更轻量级的 LaMDA模型和互联网语料库提供自然语言问答服务。根据谷歌官方,Bar

50、d 是一款与 ChatGPT 相当的,富有智慧的 AI 聊天机器人,但 Bard 的使用体验未达预期,这主要表现在回答的准确性上。例如,在一次演示中,Bard 针对于用户对于詹姆斯韦伯太空望远镜(JWST)的问题,提供了相距事实甚远的信息。与此同时,Bard 也有一些比较明显的优点,比如 Bard 会主动提醒用户,自己目前还比较容易犯错误,并且 Bard 在和用户的问答中,会提供相比 ChatGPT 而言,更为温和的回答。除此之外,谷歌官方表示,Bard 在语音理解能力和上下文敏感性都相比 ChatGPT 将有很大程度的提升,因为从原理上,LaMDA 生成器首先在给定当前多轮对话上下文的情况下

51、生成多个候选响应,LaMDA 分类器预测每个候选响应的 SSI 和安全分数,从而给出更高质量的回答。尽管 Bard 和 ChatGPT 在一些性能上的表现各有优劣,但是二者仍然在 AI 聊天服务上旗鼓相当,期待 Bard 正式发布后的持续进化及后续表现。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 16 of 36 图图 1 17 7:谷歌谷歌 BardBard 对话演示效果对话演示效果 数据来源:CNET 2.2.2.2.2.2.BertBert 预训练模型预训练模型 BertBert 技术内核与技术内核与 G GPTPT 系列相似,但系列相似,

52、但 N NLPLP 处理任务性能上存在差距。处理任务性能上存在差距。Bert 是谷歌于 2018 年 10 月发布的一款 NLP 预训练模型,它的技术内核与 GPT 系列非常相似。它同样采用了谷歌在 2017 年提出的 Transformer架构,并使用了与训练和微调的方法,使得 Bert 能够在处理文本时同时考虑上下文信息,从而生成更丰富、准确的自然语言。BERT 的发布改变了自然语言处理的领域,刷新了多项 NLP 任务的性能记录,如文本分类、命名实体识别和问答系统等。GPT 系列模型确实借鉴了 Bert 的一些关键思路,基于 Transformer 架构的预训练加微调模型,但是它们在处理文

53、本的方向性上和预训练使用的任务上具有显著差异,这导致了它们在 NLP 处理任务的性能上最终还是存在较大差别。2.2.3.2.2.3.DeepMindDeepMind 实验室实验室 DeepDeepMind AIMind AI 实验室被谷歌收购,专注于医疗健康与策略游戏应用。实验室被谷歌收购,专注于医疗健康与策略游戏应用。DeepMind 是一家成立于 2010 年,专注于 AI 领域的实验室,并于 2014年被谷歌收购,在这十年的发展中,它的研究主要集中于医疗健康与策略游戏上,并产出了许多优秀的 AI 程序:1 1)AlphaGoAlphaGo:DeepMind 于 2016 年推出的 Alp

54、haGo 是一款革命性的围棋 AI 程序。它运用先进的强化学习和蒙特卡洛树搜索算法,成为了首个击败人类围棋世界冠军的计算机程序。AlphaGo 在 2016 与围棋大师李世石的对弈胜利被认为是 AI 领域的一个里程碑式的事件。2 2)AlphaZeroAlphaZero:继 AlphaGo 成功之后,DeepMind 在 2017 年推出了 AlphaZero,一种具有更广泛应用范围的强化学习算法。AlphaZero 能够在无需输入任何资料的情况下,仅通过不断进行自我对弈,就可以成为国际象棋、围棋和将棋等游戏的顶级选手。仅用几小时的学习时间,AlphaZero 便能精通这些游戏。3 3)Alp

55、haStarAlphaStar:2019 年,DeepMind 推出了 AlphaStar,一款基于强化学习的实时战略游戏星际争霸 IIAI 系统。AlphaStar 通过大量自我对弈,掌握了高级游戏策略,并在与人类选手的对战中表现出了卓越的战术素养。AlphaStar 是首个成功击败人类职业选手的 星际争霸 IIAI。4 4)AlphaFoldAlphaFold:DeepMind 于 2020 年发布了 AlphaFold,一款旨 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 17 of 36 在预测蛋白质三维结构的 AI 系统。AlphaFol

56、d 运用深度学习算法,为研究人员提供了更快速且准确的蛋白质结构预测方法。这一科技突破被认为是近年来生物学领域最具影响力的进展之一,为生物学研究和药物开发领域带来了巨大潜力。2021,DeepMind 发布了该系列的第二代:AlphaFold 2,它的性能相比前代在效率和预测性上有着突出的优势,可在几分钟内破译一般蛋白质的三维结构,还可以预测一个由 2180 个氨基酸相连的大蛋白质的结构。图图 1 18 8:AlphaFoldAlphaFold 系统提供精准的蛋白质结构预测方法系统提供精准的蛋白质结构预测方法 数据来源:Highly accurate protein structure pred

57、iction with AlphaFold 2.3.脸书脸书(M Metaeta)2.3.1.2.3.1.FAIRFAIR(M Meta AIeta AI)FAIRFAIR 为为 MetaMeta 旗下旗下 A AI I 研究部门,研究部门,开发开发 A AI I 计算机及计算机及 L LLaMALaMA 大型语言大型语言模型模型。Facebook AI(FAIR,现更名为 Meta AI)于 2013 年正式成立,是 Meta 旗下的核心的 AI 研究部门,它致力于运用 AI 技术,包括计算机视觉、自然语言处理(NLP)、语音识别、机器学习、强化学习、机器人学等多个方面,为 Facebook

58、 产品提供支持。2014 年,在 FAIR 研究结果帮助下,Facebook 推出了一款基于深度学习的人脸识别系统:DeepFace,在当时的准确率就已经高达 97.35%,甚至高于人类对于人脸的识别能力。2015 年,FAIR 发布了一款虚拟助手:M,这是一款早期的非常早期的 AI 聊天程序,由于 M 在准确性和识别性上的性能不高,在2018 年该项目最终停止运营。2017-2018 年,为了更好地对 Facebook用户数据进行分析和审核,FAIR 分别推出了 DeepText 自然语言处理引擎和 Rosetta 计算机视觉系统,使得 Facebook 在新闻推送,评论排序和内容审核上的能

59、力大幅提高。2019 年,FAIR 正式发布了一款面向研究人员的预训练模型:PyTorch Hub,PyTorch 早在 2016 其实已经基本开发成型,并在后续研究过程中不断完善。PyTorch 的设计灵活、易于使用,支持动态计算图,让开发人员能够更容易地构建、调试和优化神经网络模型。2020 年,FAIR 发布了一款开放领域聊天机器人:Blender,同样是基于预训练加微调的方法,但是在对话质量上仍然与 ChatGPT 有着较大差距,这主要是源于优化目标(Blender 的开发目标是实现连贯有趣的对话)、模型架构(没有使用更加先进的 Transformer 架构)和训练数据规模上的差别。2

60、022 年,FAIR 建造了一台带有新型 AI 研究超 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 18 of 36 级集群(RSC)AI 超级计算机,Meta 表示,在彻底建成后,它将成为世界上计算速度最快的超级计算机。图图 1 19 9:MetaMeta AIAI 超级计算机超级计算机第一阶段已完成第一阶段已完成 数据来源:DataCenter 2023 年,FAIR 公开了一个名为 LLaMA(Large Language Model Meta AI)的大型语言模型,并对其进行了开源,该模型具有 650 亿个参数,。与其他大型语言模型相比,

61、LLaMA 更小、更高效、更节省资源,并且广泛可用于许多不同的实例,而不是针对特定任务对模型进行微调,但同时,它的参数级别也明显更低,在回答的准确性上还有待提升。2.4.苹果苹果 2.4.1.2.4.1.虚拟助手虚拟助手 SirSiri i 虚拟助手虚拟助手 SiriSiri 是是苹果苹果代表性的代表性的 AIAI 成果。成果。2011 年,Siri 随着 iPhone 4s 的推出被一同发布,并在后续被迅速整合到苹果旗下的其他产品中。Siri 是一款整合了语音识别、NLP、对话管理、语音合成、个性化上下文通知以及集成第三方应用的强大的虚拟助手,其最大的优势在与与苹果产品的深度融合,能够执行多

62、样的命令,并在后续加载更多的功能。根据苹果的官方 2022 年报告,iPhone 14pro 搭载的 Siri 能够回答的知识是三年前的 20 倍,对于用户提出的各种问题,Siri 都能基于互联网资讯并给出答案。但是从现在看来,ChatGPT 至少在回答的准确性上对Siri 造成了极大地挑战,Siri 未来发展的关键,或许将朝着更加便捷、更加准确的方向继续前进。根据纽约时报最新报道,苹果正在测试一款最新的生成式 AI(generative AI)技术,并计划将该技术未来能用于 Siri 虚拟助手,来弥补 Siri 在原始设计上的根本性问题,但是具体的发布时间,以及能够解决哪些根本性的问题尚未透

63、露。据 9to5Mac 消息,在最新的 tvOS 16.4 和 macOS Ventura 13.3 测试版中,苹果正在更新其电视产品。在苹果 TV 上的 Siri 将获得自然语言更新,并且 macOS TV 应用程序的界面也会发生改变,期待苹果在 ChatGPT 催动 AI 爆发式更新下的应用革新。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 19 of 36 图图 2020:虚拟助手虚拟助手 S Siriiri 自自 i iPhone 4SPhone 4S 首次推出首次推出 数据来源:IT 之家 2.4.2.2.4.2.Core MLCore

64、ML、ARKitARKit,Face IDFace ID 苹果苹果推出推出 C Core MLore ML、A ARKRKitit、FaceFace IDID 三项三项 A AI I 技术,对比其他技术,对比其他 A AI I巨头仍存差距。巨头仍存差距。除苹果的核心 AI 技术 Siri 之外,苹果在 2017 年也爆发式地推出了与其产品高度相关的三款AI 技术:Core ML、ARKit 和 Face ID。Core ML 是 苹果 推出的一个高性能机器学习框架,专为 iOS 和 macOS 设备设计。它允许开发者在应用中集成预训练的机器学习模型,实现实时、低延迟的机器学习任务。Core M

65、L 支持多种模型架构,包括卷积神经网络(CNN)、循环神经网络(RNN)以及广义线性模型(GLM)等,适用于图像识别、自然语言处理、推荐系统等领域。ARKit 是 苹果 推出的一款增强现实(AR)开发框架,利用设备的摄像头和各种传感器捕捉现实环境的数据。ARKit 能够识别现实世界的表面和物体,将虚拟内容与现实环境相融合。开发者可以借助 ARKit 构建各类 AR 应用,涵盖游戏、导航、购物等场景。Face ID 是 苹果 开发的一种面部识别技术,基于深度学习算法进行生物识别。Face ID 使用 TrueDepth 摄像头系统获取用户的面部特征,将其转换为数学表示。通过神经网络进行模式匹配和

66、识别,实现对设备的解锁、苹果 ID 验证以及支付操作等。Face ID 的设计旨在确保用户数据的安全性和隐私保护。对比科技巨头的 AI 产业布局,苹果在自然语言处理大模型上的研究与产品对比其他巨头有明显差距,苹果仍需在AI 大模型领域取得突破。2.5.亚马逊亚马逊 2.5.1.2.5.1.AWSAWS 云云计算平台计算平台 A AWSWS 云计算平台广泛应用,全球市场份额遥遥领先。云计算平台广泛应用,全球市场份额遥遥领先。亚马逊网络服务(Amazon Web Services,简称 AWS)是全球最广泛使用的云计算平台之一。AWS 自 2006 年成立以来,逐步建立了一个庞大的云计算生态系统。

67、其服务范围涵盖了计算、存储、数据库、分析、机器学习、物联网等多个领域。AWS 以创新的技术和丰富的服务类型满足了各种客户需求,从创业公司到大型企业,从政府机构到非营利组织,都在使用 AWS 提供的 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 20 of 36 服务,几乎占据了云计算服务的半壁江山。回顾 AWS 的发展历程,2006 年,AWS 发布的 Elastic Compute Cloud(EC2)和 Simple Storage Service(S3)奠定了其基础服务;2009 年推出的 Relational Database Servic

68、e(RDS)简化了数据库管理;2014年推出的无服务器计算服务 Lambda 开创了新的编程模式;2015 年发布的亚马逊 SageMaker 大大降低了机器学习应用的门槛。AWS 在扩展其服务范围的同时,它的市场地位也在不断巩固。根据市场研究公司 Synergy Research Group 的数据,截止 2022 年,AWS 在全球云基础设施服务市场的份额约为 31%,远高于其他竞争对手微软Azure、谷歌等,成为全球云计算领域的绝对龙头。2.5.2.2.5.2.AlexaAlexa 智能语音助手智能语音助手 亚马逊亚马逊 AlexaAlexa 智能语音助手佼佼者,携手硬件制造商丰富智能语

69、智能语音助手佼佼者,携手硬件制造商丰富智能语音功能。音功能。亚马逊 Alexa 是一款由亚马逊公司开发的 AI 助手,自 2014年亮相以来,逐渐成为智能语音助手市场的佼佼者。Alexa 最初是作为亚马逊 Echo 系列智能音响的内置功能而诞生的,后来逐步扩展到了其他智能设备,如智能手机、平板电脑、电视和汽车等。凭借其强大的语音识别能力和易用性,Alexa 迅速赢得了用户和开发者的青睐。亚马逊 Alexa 的核心功能包括语音识别、自然语言处理和语音合成等。用户可以向 Alexa 发出语音指令,如查询天气、播放音乐、控制智能家居设备等,Alexa 会理解指令并执行相应的操作。随着时间的推移,Al

70、exa 的技能库不断扩展,为用户提供了越来越丰富的功能。开发者可以利用 Alexa Skills Kit(ASK)为 Alexa 开发新的技能。ASK 提供了丰富的工具和资源,使开发者能够轻松地为 Alexa 扩展功能。截至 2022年,Alexa 技能库中已有超过 10 万个技能,涵盖了各个领域,如购物、旅游、健康、娱乐等。此外,亚马逊还致力于与硬件制造商合作,将 Alexa整合到更多的设备中,形成了一个庞大的生态系统。同时,通过亚马逊 Voice Service(AVS),第三方厂商可以将 Alexa 集成到自家的产品中,从而提供更丰富的智能语音功能。图图 2121:亚马逊智能音箱亚马逊智

71、能音箱亚马逊亚马逊 EchoEcho 整合整合亚马逊亚马逊 AlexaAlexa 数据来源:Messe Frankfurt 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 21 of 36 2.6.微软微软 2.6.1.2.6.1.新必应(新必应(N Newew BingBing)N New Bingew Bing结合结合A AI I与搜索引擎,深度融合与搜索引擎,深度融合微软微软生态。生态。Bing AI ChatGPT,也被称之为 New Bing,是一款革命性的 AI 与搜索引擎相结合的产物,它让我们寻找信息有了更加快捷高效的方式。2023 年

72、 2 月 7 日,借助ChatGPT 的风口,微软发布了全新的 Bing 搜索引擎,最值得关注的一点在于,现在的Bing搭载了全新的Bing AI聊天机器人,名为Edge Copilot。这一功能替代了以前的“Discover”特性,现在侧边栏将提供一个 AI聊天机器人。用户可以通过悬停在工具栏中的Bing图标上打开侧边栏,侧边栏在不使用时可自动隐藏。Edge Copilot 能够根据网页内容和用户目标提供智能建议和见解。AI 聊天机器人在发布时具有两个主要功能:聊天和撰写。这些功能可帮助用户做诸如总结冗长的网页内容、进行比较或在某些情况下创建内容等任务。根据微软,AI Copilot 还可以

73、帮助用户更好地撰写电子邮件、更快地搜索网络并学习新技能。不过,IT 管理员可以控制用户是否能够在Edge 浏览器中访问侧边栏,这是一个重要的考虑因素,因为一些公司已经禁止将机密信息分享给 ChatGPT 等 AI 机器人。除 AI 侧边栏外,此版本的 Edge 还包含其他新功能。微软 365 标签页将包含更大的微软 Feed,显示更多的生产力内容,并将重要邮件、最近的 SharePoint 站点、即将到来的活动和待办事项移到标签页右方。此外,浏览器还将提供各种安全模式改进,并支持一项新策略,该策略可以控制用户在退出浏览器应用程序时是否删除浏览历史记录。Edge 浏览器的稳定版本将在后续逐步推出

74、,支持 Windows 和 Mac 平台。2.6.2.2.6.2.M Microsofticrosoft 365 Copilot365 Copilot 微软微软 365 365 CopilotCopilot 重磅发布,糅合办公室软件释放生产力重磅发布,糅合办公室软件释放生产力。随着ChatGPT 引发了世界范围内的 AI 讨论热潮,微软于 2023 年 3 月 16 日再次发布了一个 AI 重量级产品:微软 365 Copilot,这款 AI 助手将大型语言模型与微软办公软件中的数据相结合,为用户提供强大的生产力。微软 365 Copilot 的革命性功能包括但不限于:1 1)释放创造力:)释

75、放创造力:在 Word、PowerPoint 和 Excel 等应用中,为办公者提供创意启发,简化写作、分析和设计过程;2 2)提高生产力:)提高生产力:在 Outlook、Teams 和 Power Platform 等应用中,为办公者减轻繁琐工作负担,提高工作效率;3 3)简化复杂技能:简化复杂技能:通过自然语言对话,让刚开始使用微软的用户轻松掌握 微软 365 中的高级功能。借助微软 365 Copilot,文档编写,PPT 报告生成,数据可视化都可以由更少的工作者以更高的效率完成,甚至能表现出更强的办公水平。这无疑是将引起一场全世界范围内的办公室革命。海外行业专题海外行业专题 请务必阅

76、读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 22 of 36 图图 2222:微软微软 365 Copilot365 Copilot 与与 W Wordord 深度结合深度结合 数据来源:科技狐,微软 2.6.3.2.6.3.AzureAzure 云服务平台云服务平台 微软微软 AzureAzure 服务和产品不断丰富服务和产品不断丰富,广泛应用于,广泛应用于企业和开发者企业和开发者。2008年的专业开发者大会(PDC)上,微软首次公开展示了名为“Windows Azure”的云服务平台。这是一个基于 Windows 操作系统的云计算平台,为开发者提供了各种服务,包括计算、存储和

77、网络等。2010 年,Azure 正式上线并开始为客户提供服务。2010-2014 年间,Azure 不断扩展其服务范围,并引入了许多新功能。例如,2012 年,Azure 推出了基于 Linux 的虚拟机,并开始支持多种编程语言和框架。此外,Azure 还推出了新的服务,如 Azure SQL 数据库、Azure Active Directory 和 Azure Blob 存储等。2014 年以来,Azure 的发展迅速,不断推出新的服务和产品。在 Satya Nadella 成为微软 CEO 后,Azure 成为公司的核心战略之一。Azure 开始支持更多的开源技术,并与其他云服务提供商竞

78、争。在这段时间里,Azure 推出了一系列新功能,包括 Azure Kubernetes 服务(AKS)、Azure Functions、Azure Cognitive Services 和 Azure Machine Learning 等。2.7.英伟达英伟达 2.7.1.2.7.1.DGX CloudDGX Cloud 英伟达携手云服务商打造英伟达携手云服务商打造 D DGX CGX Cloudloud,提供云上,提供云上 A AI I 运算效能。运算效能。2023年 3 月 22 日,英伟达在 GTC 2023 上顺势推出 DGX Cloud,这是一项AI 超级计算服务,为企业提供即时访

79、问所需的基础设施和软件,以训练生成式 AI 和其他创新应用的先进模型。DGX Cloud 为每个企业提供了专用的英伟达 DGX AI 超级计算集群,搭配英伟达 AI 软件,用户只需通过简单的网络浏览器就可以访问自己的AI超级计算机,无需处理购买、部署和管理本地基础设施的复杂性。企业可按月租用 DGX Cloud 集群,以便在无需等待高需求的加速计算资源的情况下,快速轻松地扩展大型、多节点训练工作负载。英伟达与顶级云服务提供商合作托管 DGX Cloud 基础设施,首先与 Oracle Cloud Infrastructure(OCI)合作,预计将在下季度扩展至微软 Azure,并很快扩展至谷歌

80、 Cloud 等。全球领先的生物技术公司 Amgen、保险科技领导者 CCC Intelligent Solutions(CCC)和数字业务平台提供商ServiceNow 等 AI 先驱已经开始使用 DGX Cloud。Amgen 使用 DGX Cloud 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 23 of 36 和英伟达 BioNeMo大型语言模型软件加速药物发现,包括英伟达 AI Enterprise 软件,该软件包含英伟达 RAPIDS数据科学加速库。此外,企业可以使用英伟达 Base Command平台软件管理和监控DGX Cloud

81、 上的训练工作负载,该软件在 DGX Cloud 和本地英伟达 DGX超级计算机之间提供无缝的用户体验。DGX Cloud 包括英伟达 AI Enterprise,这是英伟达 AI 平台的软件层,为数据科学流水线提供端到端的 AI 框架和预训练模型,简化 AI 的开发和部署。DGX Cloud 的每个实例包括 8 个英伟达 H100 或 A100 80GB Tensor Core GPU,每节点总共有 640GB 的 GPU 内存。英伟达 Networking 构建的高性能、低延迟互连网络确保工作负载可以跨集群扩展,允许多个实例充当一个大型GPU 以满足先进 AI 训练的性能要求。DGX Cl

82、oud 还整合了高性能存储,为 AI 超级计算提供了完整的解决方案。图图 2323:英伟达与云服务商合作推出英伟达与云服务商合作推出英伟达英伟达 DGXDGX CloudCloud 数据来源:站长之家 2.7.2.2.7.2.图形处理器(图形处理器(GPUGPU)算力是算力是 A AI I 发展的底座,英伟达发展的底座,英伟达是是 G GPUPU 领域掌控者领域掌控者。AI 发展的三大支柱包括数据、算法和算力,缺一不可。在算力方面,不仅需要训练能力,还需要 AI 在硬件上运行和进行推理,这些都离不开强大的算力支持。在最开始,深度学习算法主要依赖 CPU 进行运算。但随着数据量的不断增长,CPU

83、 的运算能力逐渐暴露出瓶颈。GPU(图形处理器)是英伟达公司 1999 年推出的一款跨时代的产品,它在早期主要用于 PC 游戏市场的发展,为运行更高画面配置的游戏提供了可能性。随着英伟达不断推出全新的 GPU 产品,彻底改变了现在计算机的图形技术,发挥了并行计算的潜能。GPU 的优势在于其拥有数千个核心,虽然单核性能可能仅为 CPU 的一半,但总算力可能是 CPU 的上百倍,因为它是专门为图形应用开发的硬件组件,适合进行大量并行浮点运算,而不涉及 CPU 通常遇到的复杂分支运算。2023 年 3 月 22 日,英伟达在 GTC 开发者大会上发布了针对 ChatGPT庞大算力需求的全新 GPU

84、产品 H100 GPU 和解决方案英伟达 H100 NVL。这些产品主要面向大语言模型和生成式 AI 的云服务,通过最新的 GPU产品,英伟达再次搭上了 AI 腾飞的翅膀,在处理器算力中继续保持了行业领先的地位。目前,英伟达在 GPU 领域掌控者约 80%的市场份额,在 AI 领域始终保持着领先地位。在 AI 如此火热的当下,牢牢在算力硬件领域占据垄断的英伟达或许才是最大的赢家。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 24 of 36 2.8.AdobeAdobe 2.8.1.2.8.1.Adobe FireflyAdobe Firefly

85、AdobeAdobe 推出创意生成式推出创意生成式 A AI I 模型,模型,AdobeAdobe FireflyFirefly 自动感知上下文和自动感知上下文和用户需求精准作画。用户需求精准作画。Adobe 公司在 2023 年 3 月 21 日推出了一款全新的AI 绘画领域重磅产品:Adobe Firefly,本质上是一款创意生成式 AI模型,能够创造卓越的 AI 绘画产品。Firefly 可以通过关键词输入来创作绘画作品,这使得它其检举实用性、创新性、便捷性和高效性。与市场上的其他 AI 绘画软件相比,如 Midjourney 和 Stable Diffusion,Firefly 具有更

86、强的上下文感知和个性化图像生成能力,能够为设计师提供精准的图像生成。它的功能包括但不限于:根据文字生成图像、将草图转换成矢量图和画笔纹理、修改视频内容以改变环境和气氛,以及根据提示词设计个性化海报等。这些功能使设计师能够快速将概念转化为视觉艺术作品,满足客户需求。目前,Firefly 已经开放测试,未来将直接融入到 Adobe 旗下 Photoshop、Illustrator 和 Premiere 等熟知软件中,帮助设计师实现无限创意可能。尽管目前仍有一些 AI 训练和版权归属方面的争议,但 Adobe 正在努力解决这些问题,使 Firefly 成为合法且实用的创意生成式 AI 模型。图图 2

87、424:AdobeAdobe FireflyFirefly 已开放测试已开放测试 数据来源:Adobe Blog 2.8.2.2.8.2.Adobe Adobe SenseiSensei AdobeAdobe 探索探索 A AI I 机器学习平台,机器学习平台,Adobe SenseiAdobe Sensei 丰富丰富 A AI I 驱动功能构建驱动功能构建个性化客户体验。个性化客户体验。Adobe Sensei 是 Adobe 与 2016 年推出的 AI 和机器学习平台,为 Adobe 各种产品提供了智能功能。Sensei 利用大量数据和深度学习算法,为用户带来更加便捷、高效的创意体验。A

88、dobe Photoshop在近期的更新中,引入了许多 AI 驱动功能:1 1)Select SubjectSelect Subject 功能功能:可以自动识别图像中的主要物体并进行快速选择;Content-Aware Fill功能则利用 AI 自动填充图像中被删除物体的空白区域。2 2)Premiere ProPremiere Pro:Adobe 旗下一款专业的视频编辑软件,也引入了一些基于 Sensei 的 AI功能。例如,Auto Reframe 功能可以自动调整视频的画面比例,以适应不同的设备和平台;Color Match 功能则可以利用 AI 自动匹配不同视频片段的颜色风格。3 3)

89、Adobe Experience PlatformAdobe Experience Platform:一个基于 AI 的客户体验管理解决方案,帮助企业构建个性化的用户体验。借助 Sensei技术,Experience Platform 可以实时分析用户数据,并根据用户行为和需求为他们提供定制化的内容和推荐。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 25 of 36 2.9.特斯拉特斯拉 2.9.1.2.9.1.自动驾驶自动驾驶 特斯拉特斯拉携手携手 O Open AIpen AI,加速探索自动驾驶。,加速探索自动驾驶。特斯拉(Tesla)方面,

90、其当前的 AI 技术聚焦于自动驾驶汽车方面,自 2019 年开始,Tesla 正式宣布了与 Open AI 的长期合作关系,也汽车行业带来了革命性的创新。开放式 AI 技术使计算机能够自主学习和操作,特斯拉利用这一技术改善其自动驾驶汽车的性能。通过与 Open AI 公司合作,特斯拉正在开发新的算法,并改进现有算法,以使自动驾驶汽车的性能更上一层楼。Open AI 技术在特斯拉自动驾驶汽车中的应用具有诸多益处,例如,开发新算法,提供用于训练和测试自动驾驶汽车的数据,了解其他驾驶员和行人的行为以确保安全,以及及时更新汽车的人工智能技术。尽管实施开放式 AI 技术面临一定挑战,但特斯拉已经成功地将

91、其应用于旗下的Autopilot 系统,实现了自动驾驶汽车在道路上的更精确、高效行驶,令其在自动驾驶领域仍处于市场相对领先地位。图图 2525:特斯拉特斯拉在在 O Open AI Daypen AI Day 上展示了自动驾驶中的视觉感知上展示了自动驾驶中的视觉感知 数据来源:CSDN,Tesla 2.10.腾讯腾讯 2.10.1.2.10.1.混元大模型混元大模型 腾讯发布混元腾讯发布混元 A AI I 大模型,成功应用于微信搜索、广告等领域。大模型,成功应用于微信搜索、广告等领域。国内互联网巨头方面,2022 年 4 月,腾讯公布了“混元”AI 大模型的研发进展,这款 AI 大模型整合了该

92、模型整合了自然语言处理(NLP)、计算机视觉(CV)和多模态等基础模型。在诸如 CLUE、VCR、MSR-VTT 和MSVD 等权威评测集合中,混元 AI 大模型均取得了优异成绩。为了优化模型性能,腾讯技术团队首次引入了“课程学习”训练方法,模拟人的学习习惯,实现渐进式的从易到难的学习。这不仅增强了模型的通用性和复用性,还显著降低了训练成本。应用层面,混元 AI 大模型已成功应用于腾讯微信搜索、广告等业务领域,有效提升了用户体验和推荐精准度。利用腾讯太极机器学习平台的 GPU 算力和训练加速框架,实现了稳定且高效的模型迭代。未来,混元 AI 大模型将继续深化研究,深入业务实践,赋能更多场景,以

93、更好地满足用户需求。腾讯自研的万亿 MoE 模型在相同资源和计算量的前提下,其性能优于稠密模型。此外,在相同规模的大模型中,MoE 模型训练和推理效率更高,资源消耗更少。大模型在自然语言理解和生成任务上能持续提升性能,且边际效益并未递减。因此,腾讯选择基于 MoE模型开展 HunYuan-NLP 1T 大模型研究,旨在充分发挥模型规模提升、海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 26 of 36 压缩技术和 MoE 模型优势,实现更高效、可靠的 AI 应用。2.10.2.2.10.2.太极机器学习平台太极机器学习平台 腾讯自研太极机器学习平台

94、业界领先,广泛应用于多个腾讯自研太极机器学习平台业界领先,广泛应用于多个 A AI I 核心应核心应用场景。用场景。腾讯太极机器学习平台是腾讯自研的一款易用性高,计算资源丰富的机器学习平台。2015 年,腾讯推出了太极机器学习平台的 1.0版本,为用户提供了数据支持、模型训练、模型服务三大功能,一站式的解决算法工程师在 AI 应用过程中可能遇到的工程问题。自诞生以来,太极机器学习平台经历了多次升级和拓展,包括深度学习训练加速、腾讯云合作、云原生架构升级等。平台在腾讯广告业务中实践了 MLOps 理念,为广告平台提供高效易用的模型迭代产品服务。2020 年,太极平台机器学习研发能力再度升级为统一

95、的云原生架构,服务腾讯广告、游戏、信安、金融等多个核心 AI 业务场景;2022 年,为了解决“广告模型迭代流程研发效率”这样一个问题,太极广告一站式平台正式全面上线,目标将广告模型迭代业务流程通过“上太极”产品化,为广告业务提供端到端的一站式模型研发体验。目前,腾讯太极机器学习已广泛应用于不同业务领域,让用户更加聚焦业务 AI 问题解决和应用。图图 2626:2 2022022 年腾讯太极年腾讯太极广告一站式平台上线广告一站式平台上线 数据来源:腾讯太极机器学习平台 2.11.百度百度 2.11.1.2.11.1.文文心一言心一言 生成式生成式 A AI I 对话应用文心一言发布,定位对话应

96、用文心一言发布,定位 A AI I 基座赋能基座赋能 B B 端应用。端应用。国内传统搜索龙头百度方面,2023 年 3 月 16 日,百度正式官宣了一款全新的生成式 AI 对话应用文心一言,3 月 27 日,文心一言云服务正式上线。文心一言是基于飞桨深度学习平台和文心知识的知识增强的大语言模型。从应用范围而言,文心一言是一种文本生成技术而非对话生成技术,因此它在生成一些富有文化内涵和哲理性的短文本,如名言警句、诗词歌赋等具有相当大的优势,但在自然语言对话方面,文心一言回答的准确性与提供有害性信息的几率较 ChatGPT 仍有较大差距。相比ChatGPT,文心一言上将核心定位放在了 AI 基座

97、型的赋能平台,更加注重 to B 方向的应用,包括政务、金融、企业、电商和旅游服务等各方面,有望实现产业赋能升级 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 27 of 36 图图 2727:百度全新一代知识增长大预言模型文心一言发布百度全新一代知识增长大预言模型文心一言发布 数据来源:文心一言 2.11.2.2.11.2.飞桨飞桨 飞桨定位内部飞桨定位内部深度学习深度学习研究项目,全面服务文心大模型研发研究项目,全面服务文心大模型研发。百度旗下飞桨(PaddlePaddle)最早起源于 2013 年,当时是作为百度内部的一个深度学习研究项目。经

98、过几年的内部研发和优化,飞桨逐渐成熟并在 2016 年正式对外开源,旨在推动中国深度学习领域的发展。开源初期,主要面向研究人员和开发者,提供了基本的深度学习功能,如多层感知机、卷积神经网络和循环神经网络等。同时,飞桨支持分布式训练,能够充分利用计算资源,提高模型训练效率。随着社区的参与和技术的进步,飞桨逐步扩展了其功能,包括支持更多的网络结构、优化算法和预训练模型等。此外,飞桨还推出了一系列工具和组件,如模型压缩、可视化和自动超参数优化等,以满足用户在不同场景下的需求。为了进一步提升性能,飞桨开始支持高性能计算平台,如英伟达 GPU 和Intel CPU 等。此外,飞桨还推出了一些针对特定硬件

99、的优化策略,如使用 TensorRT 进行 GPU 推理加速等。2020 年,飞桨发布了 2.0 版本,引入了动态图机制,使得模型构建和调试变得更加灵活和便捷。其次,飞桨 2.0 还提供了更加丰富的预训练模型库(PaddleHub),覆盖了计算机视觉、自然语言处理和语音识别等多个领域。此外,飞桨 2.0 还支持多种部署环境,包括服务器、移动设备和嵌入式系统等,以满足不同场景下的推理需求。2020-2023 年,飞桨全面服务与百度文心大模型的研发,在文心一言问世之后,飞桨亦有望陆续释出。2.12.字节字节跳动跳动 2.12.1.2.12.1.KubeRayKubeRay 项目项目 字节携手微软研

100、发字节携手微软研发 A AI I 软件软件 KubeRayKubeRay,基于分布式计算提升软件运,基于分布式计算提升软件运行效率。行效率。2022 年 8 月,微软与字节跳动在 Ray Summit 2022 年度峰会上宣布达成合作,将扩展 AI 项目 KubeRay,该项目旨在帮助组织更高效地管理和运行人工智能应用程序。KubeRay 是一款基于分布式计算,能够在多台计算机上运行的 AI 软件,这有助于提升软件的运行效率,以帮助企业更高效的 AI 应用程序。目前,KubeRay 已经发布了 Ray2.0 的 Beta阶段,它的主要功能有:Ray AI runtime(一个可以拓展和统一的

101、ML工具集)、大规模 shuffle 支持、Ray cluster 部署等。KubeRay 涵盖的 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 28 of 36 功能提供了高可用性和易用性,或许在未来将成为一项强大的AI工具。图图 2828:KubeRayKubeRay 项目由字节跳动与项目由字节跳动与微软微软共同开发共同开发 数据来源:电商报 2.12.2.2.12.2.推荐算法、自然语言处理技术和计算机视觉技术推荐算法、自然语言处理技术和计算机视觉技术 多款多款 A AI I 技术领先全球,深度应用于其核心产品中。技术领先全球,深度应用于其核

102、心产品中。字节跳动的 AI技术,基本凝结在了它的核心产品中,为用户带来了前所未有的使用体验,也让字节跳动成为了近年中国发展最迅猛的科技独角兽企业。1 1)推荐算法:推荐算法:字节跳动的核心竞争力之一是其出色的推荐算法。它采用深度学习和自然语言处理技术,分析用户行为、兴趣和社交关系,为用户提供个性化的内容推荐。这种推荐算法被广泛应用于抖音、今日头条等字节跳动的应用产品。2 2)自然语言处理()自然语言处理(NLPNLP)技术:)技术:字节跳动 AI Lab 在自然语言处理领域取得了世界领先水平。字节跳动的 NLP 技术涵盖了文本分类、情感分析、关键词提取、文本摘要等多个方面。这些技术被应用于今日

103、头条、悟空问答等产品,以提高内容的智能推荐和用户体验。3 3)计算机视觉技术:)计算机视觉技术:字节跳动在计算机视觉领域也取得了突破性成果。字节跳动的计算机视觉技术涉及人脸识别、物体检测、图像分类和风格迁移等。这些技术被运用于抖音、VUE 等产品,提供更丰富的视觉体验。2.13.华为华为 2.13.1.2.13.1.“盘古”大模型“盘古”大模型 华为“盘古”大模型即将亮相,华为“盘古”大模型即将亮相,N NLPLP 大模型具备强大理解能力和生大模型具备强大理解能力和生成能力。成能力。2021 年 4 月,华为云团队立项了“盘古”大模型;近日,华为云官网透露,“盘古”系列 AI 大模型即将上线,

104、其中包括 NLP 大模型、CV 大模型和科学计算大模型,而多模态大模型的上线时间仍未透露。盘古 NLP 大模型同样适用了 Transformer 结构,并与 ChatGPT 不同的是,它采用了其中 Encoder-Decoder 架构,兼顾 NLP 大模型的理解能力和生成能力,保证了模型在不同系统中的灵活性。而盘古 CV 大模型是按次实现模型按需抽取的业界最大的 CV 模型,他兼顾了图像识别和生成能力,能够基于模型大小和运行速度自适应抽取不同模型规模,提高 AI产品的开发效率。华为“盘古“大模型上线,有望进一步助推国内 AI产业发展。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请

105、务必阅读正文之后的免责条款部分 29 of 36 图图 2929:华为盘古华为盘古系列系列 AIAI 大模型大模型涵盖多种大模型涵盖多种大模型 数据来源:IT 之家 2.13.2.2.13.2.AscendAscend 系列芯片系列芯片 华为高性能华为高性能 A AI I 处理器处理器 A Ascendscend,多个多个 A AI I 计算场景表现不俗计算场景表现不俗。Ascend系列是华为推出的一款高性能AI处理器,被广泛用于划分为自身设备,在数据中心、边缘计算和端侧设备等场景的表现极为出色。2018 年 10月,华为首次发布了 Ascend 310 和 Ascend 910 两款 AI

106、芯片。其中,Ascend 310 面向端侧和边缘计算场景,功耗较低;Ascend 910 则针对数据中心场景,具有更强的计算能力。2019 年 8 月:Ascend 910 正式发布。Ascend 910 是当时全球最高性能的 AI 处理器之一,性能达到了每秒 256 TFLOPs(FP16)。2020 年:华为发布了 Ascend 710、Ascend 610和 Ascend 620 等多款 AI 芯片,分别应用于云端、数据中心、边缘计算和智能终端等场景。直至 2022 年,Ascend 芯片仍然继续优化其性能和功耗,以满足不同的 AI 计算场景。截至目前,华为 Ascend 芯片的出货量的

107、市场占比较小,实际应用效果仍待验证。2.13.3.2.13.3.ModelArtsModelArts 开发平台开发平台 AIAI 开发平台开发平台 M ModelArtodelArts s 不断升级,为用户提供全流程支持不断升级,为用户提供全流程支持。ModelArts 是华为云研究中心推出的另一款面向开发者的 AI 开发平台,为用户提供从数据预处理、模型训练、模型部署到模型管理的全流程支持。2018 年,华为云 ModelArts 正式发布。ModelArts 提供了丰富的 AI算法库、预训练模型、数据处理工具等资源,帮助用户快速构建和部署AI 应用。2019-2021 年,ModelArt

108、s 发布多项新功能,包括 AutoML(自动化机器学习)、分布式训练、弹性训练等,进一步降低了用户构建 AI应用的门槛。加入了更多 AI 领域的算法和预训练模型,如自然语言处理、计算机视觉等。此外,ModelArts 还提供了端云协同能力,方便用户在不同场景下部署和管理AI模型。支持更多的AI框架(如TensorFlow、PyTorch 等),提供更强大的算力支持,包括 Ascend 系列 AI 芯片、GPU等。2022年,ModelArts再次进行了大幅度的更新优化,不仅支持VS Code一键连接 Notebook,和自动以镜像创业算法和训练作业,还上线了Workflow 工作流功能。目前为

109、止,ModelArts 仍在进行不断地优化,比如标签管理服务 TMS 和新版转专属资源池,已成为华为旗下最富有生命力的一款 AI 产品。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 30 of 36 2.14.阿里巴巴阿里巴巴 2.14.1.2.14.1.达摩院达摩院 达摩院聚焦前沿科技领域研发,达摩院聚焦前沿科技领域研发,A AI I 成果不断助推产业变革。成果不断助推产业变革。阿里达摩院(Alibaba DAMO Academy)是阿里巴巴集团于 2017 年成立的研究院,旨在开展前沿科技研究和创新。2018 年,达摩院发布了“Ali-NLP”

110、自然语言处理技术,以深度学习为基础,大幅提升了中文自然语言理解能力。这项技术应用于阿里巴巴的搜索引擎、推荐系统、语音助手等业务,优化了用户体验。同年时间,阿里达摩院推出了阿里云 MaxCompute,一种大数据计算服务,帮助企业高效、安全地处理大规模数据,提高数据处理能力。2019 年,阿里达摩院成功研发了自家的 AI 芯片 含光800,这款芯片主要应用于数据中心的 AI 计算,提供高性能、低能耗的计算能力,助力阿里巴巴在云计算领域的布局。2020 年,达摩院发布了首个大规模预训练模型“盘古大师”,为阿里在自然语言处理、计算机视觉等多模态任务提供强大支持。2021 年,阿里达摩院推出了 AI开

111、源社区“魔搭”(ModelScope),其目标是构建下一代模型即服务共享平台,从而降低 AI 应用的门槛。到 2023 年 3 月,阿里在“魔搭”上线了“文本到视频生成扩散模型”,实现了文本信息转换为视频内容的功能。阿里达摩院已经推出了多个版本的多模态和深度学习大模型,极大地推动了中文大模型的发展。图图 3030:阿里达摩院机器智能、数据计算等实验室遍布全球各地阿里达摩院机器智能、数据计算等实验室遍布全球各地 数据来源:达摩院 2.14.2.2.14.2.通义大模型通义大模型 通义大模型国内首创通义大模型国内首创 A AI I 统一底座,参数规模全球第一。统一底座,参数规模全球第一。在发展过程

112、中,阿里达摩院专注于多模态预训练,并探索了通用统一大模型。2022年,阿里达摩院发布了多个版本的多模态和语言大模型,实现了超大模型、低碳训练技术、平台化服务和实际应用等方面的突破。2022 年 9月 2 日,阿里达摩院发布了业界首个通用统一大模型 M6-OFA。作为最新通义系列的一部分,M6-OFA 模型拥有 10 万亿参数的模型,成为全球参数规模最大的 AI 模型。M6-OFA 模型在国内首创了 AI 统一底座,将模态表示、任务表示和模型结构统一起来。在无需引入任何新增结构的前提下,可同时处理逾30 种跨模态任务,达到国际领先水平;此外,M6-OFA 模型采用模块化设计,借鉴了人脑的模块化结

113、构,从而提升了效率和性能。这些模型在电商、医疗、娱乐、设计和金融等领域均有实际应用。由此可见,阿里 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 31 of 36 达摩院的通用统一大模型 M6-OFA 为 AI 从感知智能向知识驱动的认知智能迈进提供了先进的基础设施,实现了模态表示、任务表示和模型结构的统一,展现了广泛的应用前景。2.14.3.2.14.3.阿里云阿里云 ETET 大脑,菜鸟网络,大脑,菜鸟网络,天猫精灵天猫精灵 阿里旗下阿里旗下 A AI I 产品众多,阿里云产品众多,阿里云 E ET T 大脑、菜鸟网络、天猫精灵应用大脑、菜鸟网

114、络、天猫精灵应用已久。已久。除了通义大模型以外,阿里巴巴旗下 AI 产品众多,阿里云 ET 大脑,菜鸟网络,天猫精灵是阿里旗下三个最具代表性的 AI 产品。1 1)阿)阿里云里云 ETET 大脑大脑:阿里于 2016 年推出的一个 AI 平台,为合作企业和开发者提供强大的 AI 算法和计算能力。它整合了大数据、机器学习和深度学习等多种技术,支持自然语言处理、计算机视觉、语音识别和推荐系统等多种应用。经过多年的发展,ET 大脑在城市管理、工业生产、医疗健康等多个领域取得了显著成果,目前牢牢占据了世界云计算市场第四的位置。2 2)菜鸟网络)菜鸟网络:阿里巴巴集团旗下于 2013 年正式成立的 AI

115、 物流平台,利用大数据和 AI 技术优化物流过程。它采用了智能路径规划、实时数据分析、预测性调度等技术,从而极大地提高物流效率和准确性。3 3)天猫精灵:)天猫精灵:2017 年推出,并迅速成为了中国市场上颇受欢迎的智能语音助手,天猫精灵与阿里巴巴旗下的电商平台、支付系统等深度集成,提供了便捷的购物和支付体验。与此同时,天猫精灵自然语言处理技术的持续优化使得天猫精灵在中文语境下的语音识别和理解能力更加强大。3.AI Critical Mass 已至已至 3.1.AI 发展达到发展达到 Critical Mass A AI I 产业发展进入临界点,应用变革层出不穷。产业发展进入临界点,应用变革层

116、出不穷。AI 产业发展至今,其发展进程已经达到了大量行业应用革新的临界点,在绘画、设计、办公、广告和硬件设施等代表性领域,产生广泛的应用和显著的影响。在这种情况下,AI 发展已经具备了足够的规模和实力,能够在这股势头下引发更多的创新和变革。因此,无论是科技大厂还是新兴的科创公司,其对于 AI 发展的判断以及未来的行业布局,都是当前值得关注的焦点。3.2.AI 已成为中美科技巨头间的军备竞赛已成为中美科技巨头间的军备竞赛 A AI I 大模型存在财力大模型存在财力要求要求、硬件设施、人才设备等高门槛,已成为、硬件设施、人才设备等高门槛,已成为中美科技巨头军备竞赛焦点。中美科技巨头军备竞赛焦点。针

117、对于 AI 大模型方向,目前已经进入了中美科技巨头的军备竞赛环节,小型人工智能厂商或初创企业,展望未来,均难以在大模型领域立足,主要面临以下多个门槛:1)财力财力要求要求:AI 的研发投入无疑是巨大的,人才引进、硬件租用、研发投入都是巨大的开销,且 AI 并不是一个短期见效从而获得收益的项目,它需要长时间、不间断地投入。目前,各大科技巨头,如谷歌,微软,亚马逊,腾讯,华为,阿里巴巴等等,都在 AI 研发投入了巨额资金。据 IDC 数据,2022 年全球 AI 市场支出以及超过 700 亿美元,预计到 2024 年将超过 1100 亿美元。这样庞大的资金投入,不是小型 AI科技厂商能够通过融资就

118、能达到的。2 2)硬件设施:)硬件设施:AI 大模型的预训练任务对于语料库数据的要求同样是巨大的,这也对科技公司的算力硬件提出了更高的要求。目前英伟达 H100 GPU 已经是供不应求,仅有少数的科技巨头能够与英伟达签订合同 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 32 of 36 获得硬件设施上的支持,或是自主研发定制 AI 芯片,例如谷歌推出的Tensor Processing Unit(TPU)。而强大的硬件要求导致小型科技公司只能在针对性的 AI 领域进行小规模深度学习模型的训练和推理。3 3)人才储备:)人才储备:当前大量的 AI

119、领域人才都纷纷受聘与大型科技公司,尤其是中国和美国,如谷歌,微软,Meta,华为,百度,阿里巴巴,腾讯等企业。以谷歌为例,2012 年底,杰弗里辛顿(Geoffrey Hinton)与其两位学生成立了公司 DNN-Research,以 4400 万美元高价被谷歌并购,最终被称为人工智能教父的杰弗里辛顿成为了谷歌副总裁、Engineering Fellow。人工智能团队的同样是巨头之间竞争的一大领域,高额的人力投入,是小型科技公司难以竞争和负担的。4 4)舆论关注度:)舆论关注度:2014 年开始,中美的科技巨头已经创立了旗下 AI研究中心,进行了长期的产品研发和技术创新。而 2022 年 Ch

120、atGPT 的成功,再次拔高了巨头们对于 AI 产业的关注度,并在第一时间着手推出自己的 AI 产品,我们可以看到,截至目前为止,市面上大部分的 AI产品都出自科技巨头旗下,且有许多公司已经对于自己的 AI 产品发布了预告,进一步抢占市场的关注度,如华为的盘古 AI 大模型,360 AI大模型,谷歌 Bard 和百度文心大模型,对于小公司而言,很难在舆论宣传和媒体推广上,与大公司抗衡在挤占市场关注度。5 5)商业模式冲击:)商业模式冲击:AI 领域的跨越式进步,对于传统科技巨头的商业模式是有毁灭性打击的,它从根本上否定了近年进化产品的方向,以UI(用户界面)为基础的人机交互模式在未来或许会彻底

121、消失,取而代之的是,AI 将成为最底层的操作系统,并可能成为 App 的入口。以ChatGPT 为例,以往的 App 要求用户来完成一系列繁琐的操作,但是在ChatGPT Plugins 加载第三方应用的情况下,我们仅仅需要做的就是与AI 交流,让 AI 来代替我们发送指令,完成操作。这样商业模式的革命性改变,目前已经在广告、搜索引擎和购物等多个领域,让巨头们产生了极大的危机感,迫使这些科技巨头进一步加大 AI 领域的研发投入,从而及时抢占市场,来规划未来的商业模式。以谷歌为例,AI 聊天机器人的出现,让谷歌赖以生存的广告商业模式的根基产生了巨大的动摇,谷歌的广告收入占到了公司总收入的 56%

122、,但是在当前,用户通过 AI进行知识搜索的情况下,并不会收到搜索引擎中的广告推送,广告的曝光量大幅下降,从而导致厂商减少了广告投入,谷歌的收入也将大幅减少。因此,以谷歌为首的科技巨头将会更加大力投入 AI 领域研发,务求降低对现有商业模式的冲击同时寻找 AI 浪潮下的新增长点。图图 3131:22Q4 Alphabet22Q4 Alphabet 公司公司收入结构收入结构 数据来源:Alphabet,国泰君安证券研究 56.02%10.47%11.14%11.57%9.62%0.30%Google Search&OtherYoutubeGoogle NetworkGoogle OtherGoog

123、le CloudOthers Bets 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 33 of 36 4.投资建议投资建议 A AI I 产业发展进入临界点,中美科技竞赛下算力需求确定性高产业发展进入临界点,中美科技竞赛下算力需求确定性高。通过系统回顾 AI 技术发展历程、主要科技巨头 AI 布局及其主要成果,我们认为 AI 产业发展的临界点已经来临,应用变革层出不穷,在财力要求、硬件设施、人才储备等高门槛下,现阶段 AI 将成为中美科技巨头的军备竞赛,算力层面的需求确定性最高,推荐标的联想集团(推荐标的联想集团(0 0992.HK992.HK)

124、,),受益标的英伟达(受益标的英伟达(N NVDA.OVDA.O)、微软(、微软(M MSFT.OSFT.O)。表表 1:重点公司估值表重点公司估值表 证券代码证券代码 证券简称证券简称 总市值总市值 (亿美元)(亿美元)净利润(亿美元)净利润(亿美元)评级评级 2022A2022A 2023E2023E 2024E2024E 2022A2022A 2023E2023E 2024E2024E 0992.HK 联想集团 131.97 17.20 19.09 21.46 7.67 6.91 6.15 增持 NVDA.O 英伟达 6,780.89 97.52 43.68 81.89 58.96 83

125、.31 59.44 未评级 MSFT.O 微软 21,377.11 727.38 695.86 808.84 28.02 30.41 26.37 未评级 数据来源:Bloomberg,国泰君安证券研究(注:英伟达、微软盈利预测取自彭博,总市值和一致预测截至 2023/4/5)5.风险提示风险提示 AI 技术迭代进度不及预期;应用落地进度不及预期;国内 AI 供应链波动风险等。海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 34 of 36 国泰君安海外科技国泰君安海外科技团队介绍团队介绍 深耕全球互联网,辐射海外大科技,全面覆盖社交、游戏、电商、互联

126、网金融、互联网服务、AI 及硬科技、美股等领域,致力于结合产业视角与买方视角做差异化研究。秦和平秦和平 执业证书编号:S0880123010042 海外科技领域负责人、首席研究员 梁昭晋梁昭晋 执业证书编号:S0880523010002 海外科技分析师 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 35 of 36 本公司具有中国证监会核准本公司具有中国证监会核准的证券投资咨询业务资格的证券投资咨询业务资格 分析师声明分析师声明 作者具有中国证券业协会授予的证券投资咨询执业资格或相当的专业胜任能力,保证报告所采用的数据均来自合规渠道,分析逻辑基于作

127、者的职业理解,本报告清晰准确地反映了作者的研究观点,力求独立、客观和公正,结论不受任何第三方的授意或影响,特此声明。免责声明免责声明 本报告仅限中国大陆地区发行,仅供国泰君安证券股份有限公司(以下简称“本公司”)的客户使用。本公司不会因接收人收到本报告而视其为本公司的当然客户。本报告仅在相关法律许可的情况下发放,并仅为提供信息而发放,概不构成任何广告。本报告的信息来源于已公开的资料,本公司对该等信息的准确性、完整性或可靠性不作任何保证。本报告所载的资料、意见及推测仅反映本公司于发布本报告当日的判断,本报告所指的证券或投资标的的价格、价值及投资收入可升可跌。过往表现不应作为日后的表现依据。在不同

128、时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。本公司不保证本报告所含信息保持在最新状态。同时,本公司对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。本报告中所指的投资及服务可能不适合个别客户,不构成客户私人咨询建议。在任何情况下,本报告中的信息或所表述的意见均不构成对任何人的投资建议。在任何情况下,本公司、本公司员工或者关联机构不承诺投资者一定获利,不与投资者分享投资收益,也不对任何人因使用本报告中的任何内容所引致的任何损失负任何责任。投资者务必注意,其据此做出的任何投资决策与本公司、本公司员工或者关联机构无关。本公司利用信息隔离墙控制内部一个

129、或多个领域、部门或关联机构之间的信息流动。因此,投资者应注意,在法律许可的情况下,本公司及其所属关联机构可能会持有报告中提到的公司所发行的证券或期权并进行证券或期权交易,也可能为这些公司提供或者争取提供投资银行、财务顾问或者金融产品等相关服务。在法律许可的情况下,本公司的员工可能担任本报告所提到的公司的董事。市场有风险,投资需谨慎。投资者不应将本报告作为作出投资决策的唯一参考因素,亦不应认为本报告可以取代自己的判断。在决定投资前,如有需要,投资者务必向专业人士咨询并谨慎决策。本报告版权仅为本公司所有,未经书面许可,任何机构和个人不得以任何形式翻版、复制、发表或引用。如征得本公司同意进行引用、刊

130、发的,需在允许的范围内使用,并注明出处为“国泰君安证券研究”,且不得对本报告进行任何有悖原意的引用、删节和修改。若本公司以外的其他机构(以下简称“该机构”)发送本报告,则由该机构独自为此发送行为负责。通过此途径获得本报告的投资者应自行联系该机构以要求获悉更详细信息或进而交易本报告中提及的证券。本报告不构成本公司向该机构之客户提供的投资建议,本公司、本公司员工或者关联机构亦不为该机构之客户因使用本报告或报告所载内容引起的任何损失承担任何责任。评级说明评级说明 Table_InvestInfo 评级评级 说明说明 1.1.投资建议的比较标准投资建议的比较标准 股票投资评级股票投资评级 增持 相对美

131、国标普指数涨幅 15%以上 投资评级分为股票评级和行业评级。投资评级分为股票评级和行业评级。以报告发布后的以报告发布后的 1212 个月内的市场表现为个月内的市场表现为比较标准,报告发布日后的比较标准,报告发布日后的 1212 个月内的公个月内的公司股价(或行业指数)的涨跌幅相对同期司股价(或行业指数)的涨跌幅相对同期的美国标普指数指数涨跌幅为基准。的美国标普指数指数涨跌幅为基准。谨慎增持 相对美国标普指数涨幅介于 5%15%之间 中性 相对美国标普指数涨幅介于-5%5%之间 减持 相对美国标普指数下跌 5%以上 2 2.投资建议的比较标准投资建议的比较标准 行业投资评级行业投资评级 增持 明

132、显强于美国标普指数 报告发布日后的报告发布日后的 1212 个月内的公司股价(或个月内的公司股价(或行业指数)的涨跌幅相对同期的美国标普行业指数)的涨跌幅相对同期的美国标普指数指数的涨跌幅。指数指数的涨跌幅。中性 基本与美国标普指数持平 减持 明显弱于美国标普指数 国泰君安证券研究国泰君安证券研究所所 上海上海 深圳深圳 北京北京 地址 上海市静安区新闸路 669 号博华广场 20 层 深圳市福田区益田路 6003 号荣超商务中心 B 栋 27 层 北京市西城区金融大街甲 9 号 金融街中心南楼 18 层 邮编 200041 518026 100032 电话(021)38676666(0755

133、)23976888(010)83939888 E-mail: 海外行业专题海外行业专题 请务必阅读正文之后的免责条款部分请务必阅读正文之后的免责条款部分 36 of 36 附:海外当地市场指数附:海外当地市场指数 亚洲指数名称亚洲指数名称 美洲指数名称美洲指数名称 欧洲指数名称欧洲指数名称 澳洲指数名称澳洲指数名称 沪深 300 标普 500 希腊雅典 ASE 澳大利亚标普 200 恒生指数 加拿大 S&P/TSX 奥地利 ATX 新西兰 50 日经 225 墨西哥 BOLSA 冰岛 ICEX 韩国 KOSPI 巴西 BOVESPA 挪威 OSEBX 富时新加坡海峡时报 布拉格指数 台湾加权 西班牙 IBEX35 印度孟买 SENSEX 俄罗斯 RTS 印尼雅加达综合 富时意大利 MIB 越南胡志明 波兰 WIG 富时马来西亚 KLCI 比利时 BFX 泰国 SET 英国富时 100 巴基斯坦卡拉奇 德国 DAX30 斯里兰卡科伦坡 葡萄牙 PSI20 芬兰赫尔辛基 瑞士 SMI 法国 CAC40 英国富时 250 欧洲斯托克 50 OMX 哥本哈根 20 瑞典 OMXSPI 爱尔兰综合 荷兰 AEX 富时 AIM 全股

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(海外科技行业中美科技巨头的AI大模型竞赛:GPT裂变时刻-230406(36页).pdf)为本站 (明日何其多) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部