《2023人工智能AI在软件行业中的应用及影响分析报告.pdf》由会员分享,可在线阅读,更多相关《2023人工智能AI在软件行业中的应用及影响分析报告.pdf(32页珍藏版)》请在三个皮匠报告上搜索。
1、2023 年深度行业分析研究报告 3 目录目录 报告缘起报告缘起.6 算法模型:算法模型:AI 巨头从开源走向闭源,软件厂商需要有所选择巨头从开源走向闭源,软件厂商需要有所选择.7 软件产业:软件产业:AI 驱动产品形态、市场格局重构驱动产品形态、市场格局重构.16 应用软件:平台型、垂类软件等有望显著受益,单点解决方案或将受损.16 基础软件:AI 显著降低产品使用门槛,数据管理最为受益,安全、运维等亦将受益.21 产业生态:更加紧密、复杂的软件分工协作体系产业生态:更加紧密、复杂的软件分工协作体系.29 4 插图目录插图目录 图 1:ChatGPT 月活破亿所花时间.6 图 2:微软宣布生
2、成式 AI 助手 Copilot 对 Microsoft 365 工具套件进行升级.6 图 3:从 2017 年开始,人工智能的底层研究从小模型转为了大模型.7 图 4:从 2018 年到 2022 年,人工智能模型体积增长了 500 倍.7 图 5:目前成功的人工智能独角兽都离不开互联网大厂的资金支持.8 图 6:谷歌+微软在 2022 年发布了约 60%的大语言模型相关学术论文.8 图 7:OpenAI 在文档中明确声明只会与合作方分享模型具体的实现细节.9 图 8:人工智能重构软件产业中间层:从小作坊式发展走向工业化道路.11 图 9:Meta 开源的 LLaMA 模型效果好于 GPT-
3、3 但与更大参数量的 PaLM 差距明显.11 图 10:闭源大厂会提供标准化的 API key 以便用户接入.12 图 11:对于大型企业客户,OpenAI 根据规模(Scale)收费.12 图 12:4 月初,意大利出于对 ChatGPT 数据隐私相关的担忧宣布禁用 ChatGPT.14 图 13:Huggingface 是大语言模型最大的开源项目之一,但也只拥有 1 万用户.14 图 14:BloombergGPT 采用数据集.15 图 15:Microsoft Copilot 产品逻辑.15 图 16:生成式 AI 影响市场营销各个环节,促进转化率提升.16 图 17:Salesfor
4、ce Einstein GPT 应用场景.17 图 18:Pilot AI 利用生成式 AI 从销售通话中提取信息.17 图 19:美股主要应用软件 SaaS 公司平均 ACV 水平.18 图 20:全球 CRM 市场份额(2022).18 图 21:全球 ERP 市场份额(2022).18 图 22:Salesforce 上层应用相关的关系型、非关系数据都将在底层数据层持续沉淀.19 图 23:Adobe 提供的实时客户数据平台(CDP).19 图 24:Salesforce Einstein GPT for Developers .20 图 25:全球低代码/无代码/智能开发工具市场规模及
5、增速.20 图 26:全球低代码/无代码/智能开发工具市场份额.21 图 27:数据对 AI 模型的促进作用.22 图 28:数据对 AI 产品提升的促进作用.22 图 29:2020 年全球数据流量比例(按应用类型).22 图 30:非结构化数据占比.22 图 31:全球分析型数据管理和集成市场规模及增速.23 图 32:全球 IT 性能监控市场规模及增速.24 图 33:模型开发/调试/部署/监控全流程.24 图 34:ChatGPT 采用 Cloudflare 的方案保护 Web 端应用安全.25 图 35:全球应用程序保护&可用性市场规模及增速.25 图 36:ZTNA 主要架构.25
6、 图 37:全球安全网关市场规模及增速.26 图 38:全球数据丢失保护市场规模及增速.26 图 39:全球消息安全市场规模及增速.26 图 40:敏捷软件开发:短的开发“冲刺”.27 图 41:Devops 流程.28 图 42:全球软件开发管理市场规模及增速.28 图 43:全球软件开发管理市场份额(2021).28 5 图 44:CoPilot 为开发者提供代码建议.29 图 45:基于 NLP 的大语言模型拥有优秀的泛用性,将成为各类任务的底座.29 图 46:OpenAI 的六大类模型,其中 Chat 是面向用户的核心入口.30 图 47:ChatGPT 目前支持的部分插件.31 图
7、 48:Grounding 本质上是对用户指令优化并让大语言模型更精准理解.32 图 49:微调的存在让大语言模型可以满足不同垂直领域的需求.33 表格目录表格目录 表 1:从 GPT-3 开始,谷歌与 OpenAI 的主要模型都不再公开访问.9 表 2:当前主流的开源大语言模型项目及其基础模型.10 表 3:部分软件提供商结合 AI 能力的尝试.10 表 4:根据企业自有数据量的不同灵活选择需要的硬件数量.13 表 5:Einstein GPT 核心应用场景.17 表 6:低代码开发的基本原则.21 表 7:IT 监控软件市场主要领域及主要玩家.23 表 8:XDR 的核心能力.27 表 9
8、:OpenAI 定价模式.30 表 10:重点推荐公司盈利预测.34 6 报告缘起报告缘起 在过去的半年里,我们见证了 70 年以来 AI 产业最为快速的发展,据 SimilarWeb 的数据显示,2022 年 11 月在美国推出的 ChatGPT,仅在短短 2 个月内活跃用户规模便突破 1 亿大关,成为全球历史上用户增长最快的消费者应用。在下游应用领域,微软宣布将ChatGPT 导入到 Azure、Office、Bing 搜索等产品线中,谷歌亦宣布基于自身的语言大模型推出类似 ChatGPT 的相关产品 Bard,并将 AI 能力导入旗下的办公产品 workspace 中,AI 和软件产业正
9、在快速融合。图 1:ChatGPT 月活破亿所花时间(月)资料来源:similarweb 图 2:微软宣布生成式 AI 助手 Copilot 对 Microsoft 365 工具套件进行升级 资料来源:微软 Copilot 发布会 全球科技巨头纷纷涌入 AI 市场,显示了 AI 产业化进程的全面加速,并将 AI 能力逐渐融入各类软件服务中。这场以底层技术为基础的 AI 升级换代,对当前软件行业的服务模式料将产生显著影响。我们分析认为,人工智能技术、软件服务之间存在天然的相关性。本篇报告将以美股软件巨头在 AI 领域的产品布局为起点,系统性地探讨 AI 和软件的可能的融合方式,以及中长期维度,A
10、I 将如何影响、乃至改变软件产业。0070TwitterFacebookInstagram微信TikTokChatGPT 7 算法模型:算法模型:AI 巨头从开源走向闭源,软件厂商需要有巨头从开源走向闭源,软件厂商需要有所选择所选择 少数科技巨头正在引领少数科技巨头正在引领 AI 基础模型的发展基础模型的发展。回顾近十年的人工智能模型发展,我们发现 AI 技术提供商数量稀少且进入门槛不断提高。这主要是因为从 2017 年起,人工智能研究从小模型转向大语言模型,导致模型体量成倍增加,需要更多 GPU 算力和配套设施投入,大量的前期资本投入以及过长的回报周期阻碍了许多新进入者
11、。图 3:从 2017 年开始,人工智能的底层研究从小模型转为了大模型 资料来源:中信证券研究部绘制 大大模型时代,模型时代,模型体积几何式增长导致前期投入过高,模型体积几何式增长导致前期投入过高,成功者往往依赖成功者往往依赖科技巨头科技巨头的资的资金金、数据等、数据等支持。支持。在过去五年内,我们看到成功的人工智能独角兽都在寻找互联网科技大厂作为其背后的依靠,主要因为:1)能够得到充足而短时间内不求产出的资金支持;2)依靠互联网大厂的公有云等相关资源进一步降低成本;3)获取互联网大厂长期以来所积累的优质数据源。图 4:从 2018 年到 2022 年,人工智能模型体积增长了 500 倍 资料
12、来源:LESSWRONG,中信证券研究部 8 图 5:目前成功的人工智能独角兽都离不开互联网大厂的资金支持 资料来源:LESSWRONG,中信证券研究部 大模型研发的高门槛让头部少数大模型研发的高门槛让头部少数 AI 厂商占据主导厂商占据主导权权,并开始从技术研发向商业化落,并开始从技术研发向商业化落地迈进地迈进。从 Bert开始到GPT-3再到谷歌的 PALM,人工智能技术的发展潮流始终由 OpenAI、谷歌等少数几家巨头主导,其他厂商根据先行者的开源资料以及相关论文进行模仿并创新。但从 OpenAI 发布 GPT-3 走向商业化盈利开始,谷歌也迅速效仿,不再公布 T5 模型及后续版本的细节
13、。头部的 AI 厂商希望将自身的技术优势构筑为商业化能力的核心壁垒,以延长后来者的追赶时间。图 6:谷歌+微软在 2022 年发布了约 60%的大语言模型相关学术论文 资料来源:NeurIPS,中信证券研究部 0204060800180200 9 表 1:从 GPT-3 开始,谷歌与 OpenAI 的主要模型都不再公开访问 LaMDA Sparrow PaLM-E GPT 系列模型系列模型 组织 Google DeepMind 谷歌 OpenAI 能否公开访问 否否 否否 否否 有限有限 参数量 1370 亿 700 亿 5620 亿 1700 亿及以上 预训练语料库大小
14、(词数)2.81T 1.4T 7800 亿 Token GPT-3 近 5000 亿 Token 模态 文字 文字 多模态 GPT-4 具备多模态 训练硬件 1024 块 TPUv3 基于 TPUv3/v4 6144 块 TPUv4 预计 GPT-4 使用千余块英伟达 A100 产品化进度 BARD 机器人 NA NA Microsoft 365 Copilot Microsoft Azure Microsoft Bing 资料来源:谷歌、微软、OpenAI 官方技术博客,中信证券研究部 人工智能头部厂商从人工智能头部厂商从开源走向闭源,利用其综合优势来保持持续的领先开源走向闭源,利用其综合优
15、势来保持持续的领先。谷歌与OpenAI 作为行业内的技术领先者已经明确选择了闭源模式:本次 OpenAI 推出 GPT-4 的形式与以往模型的发布都有所不同,OpenAI 既没有公开发布 GPT-4 的相关论文,也没有提供详细的框架说明,仅仅提供了一份 98 页的技术文档(主要描述模型能力以及相关评测的得分,几乎没有任何技术细节)。通过这一方式,OpenAI 阻断了所有借鉴者参考的直接途径(模型大小、数据集构建、训练方法等),将闭源的路线坚持到底。通过这一方式,OpenAI 迫使想要融入 GPT-4 能力的软件服务商与其合作,OpenAI 提供对应的 API 接口以及部署指导。图 7:Open
16、AI 在文档中明确声明只会与合作方分享模型具体的实现细节 资料来源:OpenAI GPT-4 技术文档 相较于头部相较于头部 AI 厂商,追赶者更倾向于厂商,追赶者更倾向于通过通过培养开源社区,共同迭代模型以缩小培养开源社区,共同迭代模型以缩小和头和头部厂商的部厂商的差距。差距。头部厂商闭源模型后,落后一到两个身位的公司(Meta、Amazon、NVIDIA等)可能会选择开源路线,寄希望通过社区的力量加速迭代。目前大语言模型开源社区的主要贡献者包括 Meta、NVIDIA 以及 Huggingface 等,通过分享部分模型与大语言模型相关的知识培训逐渐培养起了一批开源开发者。Meta 于 20
17、23 年 3 月发布了其新一代大语言模型 LLaMA 并将源代码开源给社区。社区用户及企业可以免费使用公开的模型以及数据源,但受证书限制不能用作商业用途。10 表 2:当前主流的开源大语言模型项目及其基础模型 名称名称 基础模型基础模型 训练方法训练方法/数据集数据集 Alpaca LLaMA Alpaca ChatMLG GLM 自定义数据集(1T)Dolly GPT-J 6B Alpaca Belle Bloom Alpaca+自定义数据(2M)OpenChatKit GPT-NEO OIG-43M FastChat LLaMA shareGPT(70K)gpt4all LLaMA GPT
18、-3.5 生成的 800k 数据集 资料来源:Github,中信证券研究部 面对当下情形,面对当下情形,软件服务商需在与闭源头部厂商合作或选择免费开源方案之间做出抉软件服务商需在与闭源头部厂商合作或选择免费开源方案之间做出抉择。择。在见证了 ChatGPT 的成功后,拥抱 AI 能力成为了软件服务商的普遍共识。Gartner预计到 2025 年,生成式人工智能将占所有生成数据的 10%。由于底层大语言模型的高门槛,只有部分科技巨头有能力完全自研底层模型。而绝大多数软件服务商需要在成为闭源头部厂商的合作伙伴与使用自有数据在开源项目的基础上开发之间做二选一的抉择。表 3:部分软件提供商结合 AI
19、能力的尝试 基础能力基础能力 工具工具 特征特征 图像生成-市场、设计、生产 Artbreeder 生成图像,可选择主体的年龄、性别 Craiyon 文本到图片转换 DALL-E 创建、编辑图像,并提供商业权利来创造内容 NightCafe 生产具有不同风格和分辨率选项的艺术图 starryai 创建具有不同风格、长宽比等选项的艺术品,并对制作的内容拥有完全的所有权 Colormind 如果需要,允许根据电影场景、艺术品或其他图像创建调色板 Designsai 生成标识和横幅,提供设计模板,并能将生成的项目导出为不同的格式 Fronty AI 创建与移动设备和 SEO 需求兼容的网站 Khro
20、ma 允许培训个性化的算法来创建真正的调色板 Uizard 根据草图创建移动应用程序、网站或登陆页面的设计 视频生成-市场 Elai 允许将博客文章转换为视频;提供25 个头像,为客户制作个性化的头像 Flexclip 支持视频创作,提供视频编辑工具,如添加转场、过滤器或删除背景等 Lumen5 提供模板,以创建基于演示文稿或在线会议记录的视频 Synthesia 实现文本到视频的转换;提供70 个头像;提供65 种语言的服务 Veed.io 视频生成和编辑,添加字幕,去除背景噪音,调整视频大小 资料来源:各公司官网,中信证券研究部 11 图 8:人工智能重构软件产业中间层:从小作坊式发展走向
21、工业化道路 资料来源:a16z,中信证券研究部绘制 1)软件提供商选择闭源厂商方案软件提供商选择闭源厂商方案的优缺点的优缺点分析分析:与开源方案相比,闭源大厂技术更为领先与开源方案相比,闭源大厂技术更为领先:目前开源项目的准确度仍不及 2021年发布的前代模型 GPT-3.5 与 PaLM。软件提供商与闭源大厂成为合作伙伴会得到更加可靠的模型支持。对于数据存量较大且存储种类较为复杂的行业来说,闭源厂商的模型更能保证在大规模应用场景下的稳定性。以 2023 年 3 月 Meta 开源的 LLaMA 为例,最大参数量 65B 的 LLaMA 模型在准确率上与 2021 年谷歌闭源发布的 PaLM
22、模型差距明显。图 9:Meta 开源的 LLaMA 模型效果好于 GPT-3 但与更大参数量的 PaLM 差距明显 资料来源:Meta 公布的 LLaMA 论文 闭源大厂为软件服务商封装中间技术细节闭源大厂为软件服务商封装中间技术细节,简化训练、部署等环节,简化训练、部署等环节,降低软件厂降低软件厂商技术难度,并提升接入、开发效率商技术难度,并提升接入、开发效率。与闭源大厂合作大幅简化了软件服务商部署大语言模型的难度。由于大型 AI 模型通常需要强大的计算能力和资源,大多数企业和个人难以承担部署和运维成本。与此同时,模型的推理环节可以通过汇编语言对底层 CUDA 加速框架进行优化以降低推理成本
23、,而大部分企业不具备这 12 一层面的能力和经验。针对上述问题,闭源大厂可以通过云服务平台将复杂的技术问题进行封装,使软件服务商无需关注底层实现,直接使用 AI 模型并根据自身业务对模型进行微调。此外,闭源模型会直接提供一步到位的 API 端口,软件服务商直接将 API 接入到软件中就可以使用。图 10:闭源大厂会提供标准化的 API key 以便用户接入 资料来源:OpenAI 官网 与闭源大厂合作的潜在顾虑与闭源大厂合作的潜在顾虑:昂贵的成本、:昂贵的成本、用户隐私用户隐私&数据安全等数据安全等。在与软件服务商的合作方案上,OpenAI 按照使用量来收费。对于数据密集型行业来说,每1GB
24、数据的处理需要花费超过 8000 美元。此外,另一个顾虑在于数据源并不掌握在企业自身手中,对于数据隐私程度较高的场景,目前相关的数据隐私与安全监管仍然不完善。图 11:对于大型企业客户,OpenAI 根据规模(Scale)收费 资料来源:OpenAI 官网 13 2)基于开源方案自建大语言模型的优缺点基于开源方案自建大语言模型的优缺点分析分析:基于开源方案自建大语言模型使基于开源方案自建大语言模型使资金投入更加灵活与可控。资金投入更加灵活与可控。目前开源社区中基于LLaMA、Alpaca、Bloom 等的开源项目都是免费提供。尽管限制商业化用途,但企业可以通过提取权重的方式进行规避。根据自身的
25、数据规模以及相关业务对于准确度的要求,企业可以灵活控制对硬件采购的投入以及相关训练成本的支出。与此同时,市场也出现了诸如 Colossal-AI 等开源解决方案,致力于优化底层推理和训练的效率。表 4:根据企业自有数据量的不同灵活选择需要的硬件数量 参数数量参数数量(亿)(亿)注意头注意头 隐藏层隐藏层 层数层数 张量模型张量模型-并行大并行大小小 管道模型管道模型-并行大小并行大小 GPU数量数量 批量批量大小大小 Achieved teraFlOP/s per GPU 理论峰值理论峰值FLOP/s 的的百分比百分比 实现聚合实现聚合petaFLOP/s 1.7 24 2304 24 1 1
26、 32 512 137 44%4.4 3.6 32 3072 30 2 1 64 512 138 44%8.8 7.5 32 4096 36 4 1 128 512 142 46%18.2 18.4 48 6144 40 8 1 256 1024 135 43%34.6 39.1 16364 8192 48 8 2 512 1536 138 44%70.8 76.1 80 10240 60 8 4 1024 1792 140 45%143.8 145.6 96 12288 80 8 8 1536 2304 148 47%227.1 310.1 128 16384 96 8 16 1920 21
27、60 155 50%297.4 529.6 128 20480 105 8 35 2520 2520 163 52%410.2 1008.0 160 25600 128 8 64 3072 3072 163 52%502 资料来源:a16z,中信证券研究部 开源方案可将数据留在本地,最大限度地保护开源方案可将数据留在本地,最大限度地保护用户用户隐私和隐私和数据数据安全。安全。对于数据安全至关重要的行业,确保数据隐私是选择基于开源方案自建的最大理由。2023年 4 月,意大利就因为担忧数据隐私与保护监管的制度不完善禁止企业使用ChatGPT,三星亦因担心内部资料泄露问题限制了部分部门对 Chat
28、GPT 的访问。尽管目前相关限制并未涉及 API 和模型实例的使用,但基于数据隐私的考虑,基于开源方案自建是企业的最优选择。14 图 12:4 月初,意大利出于对 ChatGPT 数据隐私相关的担忧宣布禁用 ChatGPT 资料来源:CNBC 开源方案的开源方案的潜在潜在问题:社区不成熟,模型迭代速度慢,与闭源模型问题:社区不成熟,模型迭代速度慢,与闭源模型技术技术能力存在能力存在明显差距。明显差距。目前大语言模型开源社区主要的推动者包括 Meta、Huggingface、NVIDIA 等,但如 Meta 只开源了部分模型以及语料数据。且受限于大语言模型的高门槛,开源社区的活跃用户无法与其他小
29、模型相比。在这种情况下,短时间内我们很难看到开源模型通过社区迭代发生能力上的飞跃。开源社区仍然需要头部大厂花费更多精力与资源对开发者进行培训与课程教育。图 13:Huggingface 是大语言模型最大的开源项目之一,但也只拥有 1 万用户 资料来源:Github 小结:小结:总结而言,对于拥有海量经授权的垂类数据、充裕现金流以及直接落地场景的软件大厂适合基于开源模型进行 AI 能力的构建,比如 Bloomberg 基于 BLOOM(GPT-3变种)的纯解码器因果语言模型构建了 BloombergGPT,其训练数据集为超过 7000 亿个标签数据的大型训练语料库,金融数据集包含 3630 亿个
30、标签,占据 54.2%的训练集。海量的垂类经授权语料(网页、新闻、公告、新闻、彭博自有数据),在情绪分析、风险管 15 理、知识图谱、配置建议等方向的直接落地场景,以及相关人才、资源的稳定支持使得Bloomberg 基于开源模型训练 AI 能力具有充分的价值。类似的,我们认为生命科学 CRM&研发管理领域的 Veeva 亦有能力基于经授权的垂类语料赋能医疗 CRM、药物研发流程管理环节。当然,对于不满足以上三项条件的厂商,直接接入闭源模型应为理论上最优的解决方案。值得一提的是,对于 Salesforce、Workday 等平台型应用软件厂商而言,尽管具备充裕的资源和落地场景,但其平台上的数据集
31、多为用户私有数据,无法投入模型训练。因此,参照 Microsoft Copilot 产品实现逻辑,通过用户私有数据增强 prompt 后,导入微调闭源模型进行推理,进而实现内容生成、流程&命令自动化等效果应为这类厂商实现 AI能力的主要方式。图 14:BloombergGPT 采用数据集 资料来源:LESSWRONG,中信证券研究部 图 15:Microsoft Copilot 产品逻辑 资料来源:微软官网 16 软件产业:软件产业:AI 驱动产品形态、市场格局重构驱动产品形态、市场格局重构 回顾移动互联网时代,移动互联网的快速渗透使得一批新兴玩家陆续涌现,但多数 PC互联网时代原有的参与者亦
32、通过移动互联网的产品,进一步提升了客户覆盖和业务变现能力,当然也有部分厂商因布局迟缓、战略失当而黯然离场。我们认为这一逻辑在 AI 时代亦不例外,未来市场会逐步出现所谓 AI 原生的新生力量,而软件市场原有的参与者也将迎来产业链价值的再分配,或受益或受损。当然,基于所处产业环节、竞争格局、产品体系、客户结构等诸多因素,不同参与者的受益&受损逻辑和程度亦有所区别,以下我们将分别从应用软件、基础软件两个层面进行展开分析。应用软件:平台型、应用软件:平台型、垂类软件垂类软件等等有望有望显著显著受益,受益,单单点解决方案或将受损点解决方案或将受损 我们主要从产品体系、客户结构、数据沉淀、生态构建等维度
33、来衡量应用软件领域的受益&受损逻辑。在这一判断体系下,我们认为品类全面、份额领先、生态完善、数据持续积累的平台型厂商,以及格局优异、具备独特数据集和直接落地场景的垂类软件有望率先受益;同时,对于部分功能相对单一、格局尚不明朗的点解决方案厂商,则有可能在新一轮的 AI 浪潮中受到冲击。产品体系:产品体系:我们认为,大语言模型对于应用软件的强化一方面在于单点功能的增强,比如在销售环节自动进行线索整理、生成销售策略,在营销环节自动生成营销文本、个性化广告投放,在客服环节自动生成或扩展客户问题回复等;另一方面在于增强各项功能的协同效果,使得交互界面进一步上移,比如用户可以通过一条指令实现销售线索归集整
34、理、营销内容生成及个性化投放的全流程,而这在过去需要在不同的产品页面中完成。就单点能力的强化而言,就单点能力的强化而言,我们认为客户会率先向更容易落地、实现 ROI 转化的领域进行预算投放,包括客服、营销、辅助内容创意等领域。而就各项功能的协同而言而就各项功能的协同而言,显然产品体系更为全面、丰富的平台型厂商相对更容易实现这一效果,而单纯单点功能的强化将具有较强的同质性(AI 带来的产业价值增值部分很难被软件厂商所获取),因此相较于单点产品,平台型厂商的优势有望在大语言模型的赋能下进一步增强。图 16:生成式 AI 影响市场营销各个环节,促进转化率提升 资料来源:中信证券研究部绘制 17 图
35、17:Salesforce Einstein GPT 应用场景 资料来源:Salesforce 官网 表 5:Einstein GPT 核心应用场景 名称名称 功能功能 Einstein GPT for Service 1)自动邀请客户进入其他协作渠道;2)自动生成个性化的客服聊天回复;3)在客户对话期间自动生成摘要,提高录入案例的准确性和完成度;4)根据以往客户的聊天对话创建知识库文章,可以向其他客服和客户开放以解决客户问题 Einstein GPT for Sales 1)自动生成电子邮件,安排会议;2)为前期客户调研提供外部资料;3)添加尚未在 Salesforce 系统中的联系人;4)
36、自动邀请客户进入其他协作渠道 Einstein GPT for Marketing 营销人员可以利用 GPT 动态生成个性化内容,通过电子邮件、移动设备、Web、广告等形式吸引客户和潜在客户 Einstein GPT for Commerce 1)将客户数据转化为可操作的销售见解;2)个性化的顾客体验,一对一的产品推荐;3)使用客户数据提供更有针对性的产品分类 Einstein GPT for Develops Einstein GPT 通过使用 AI 聊天助手生成代码并针对 Apex 等语言提出问题,利用 Salesforce Research专有的大型语言模型提高开发人员的工作效率 Ein
37、stein GPT for Slack 基于 Slack 平台集成了 ChatGPT 强大的生成人工智能技术,可提供:1)直接在 Slack 中编写帮助;2)研究工具,即 Slack 中基于 AI 的客户洞察,例如销售智能摘要和客户背景研究;3)即时对话摘要 资料来源:Salesforce 官网,中信证券研究部 图 18:Pilot AI 利用生成式 AI 从销售通话中提取信息 资料来源:Pilot AI 官网 18 客户结构:客户结构:在过去的应用软件市场,面向大型企业客户的产品和面向 SMB 客户的产品往往是割裂的。原因在于大型企业客户的需求往往更为复杂,而功能的复杂度往往意味着易用性层面
38、的妥协,SMB 客户更为倾向于接受功能相对简单但使用门槛较低的方案。但伴随着大语言模型的渗透,复杂的功能和配置项可以依赖自然语言的交互进行实现。人机交互界面的简化,意味着原本为大型企业客户设计的产品有机会向 SMB 客户下沉,而此前针对 SMB 用户的产品则有可能遭受降维打击。当然,不同客群适用的营销策略、渠道手段、功能定义均有所区别,但不可否认的是大语言模型的融入的确增加了企业级产品客群下沉的可能性。图 19:美股主要应用软件 SaaS 公司平均 ACV 水平(千美元)资料来源:彭博,中信证券研究部 图 20:全球 CRM 市场份额(2022)图 21:全球 ERP 市场份额(2022)资料
39、来源:Gartner,中信证券研究部 资料来源:Gartner,中信证券研究部 数据沉淀:数据沉淀:正如我们此前论述的观点,拥有海量经授权的垂类数据、充裕现金流以及直接落地场景的软件大厂适合基于开源模型进行 AI 能力的构建,通过模型本身构建独特的竞争壁垒。但对于大部分厂商而言,调用第三方闭源模型仍为理论上最优的解决方案。在底层模型同质化的背景下,数据的独特性显然是厂商实050002500BShopifyZoomHubSpotPaylocityPaycomZoomInfoToastQualtricsSalesforceCoupaWorkdayServiceNowVeeva
40、SalesforceiQorAdobeOracleMicrosoftSAPGenesysHubSpotZendesk其他SAPWorkdayOracleUKGSageVismaInforCornerstoneMicrosoft其他 19 现差异化的核心手段。考虑到客户数据的隐私性和安全性至关重要,直接调用客户数据进行训练并不现实。因此,在 100%的数据访问透明性和客户数据完整性的基础上,参照 Microsoft Copilot 产品实现逻辑,通过用户私有数据增强 prompt后,导入微调闭源模型进行推理,进而实现内容生成、流程&命令自动化等效果应为这类厂商实现 AI 能力的主要方式。与此同时
41、,厂商可以通过各个客户的用户反馈数据持续训练个性化小模型,进一步优化大模型的生成效果,降低“幻觉”问题的出现概率,不断优化用户的使用体验。在这一逻辑下,预计拥有海量数据&流程沉淀的平台型软件厂商亦将充分受益,而仅在工具层面实现浅层次整合的厂商将不具备显著产品壁垒。图 22:Salesforce 上层应用相关的关系型、非关系数据都将在底层数据层持续沉淀 资料来源:Salesforce 官网 图 23:Adobe 提供的实时客户数据平台(CDP)资料来源:Adobe 官网 20 生态构建:生态构建:我们这里提到的生态构建分为了两个层面,其一是降低了 ISV(独立软件开发商)和 SI(系统集成商)的
42、开发和部署难度,比如 Salesforce 的 Einstein GPT for Developers 提供了自动生成 Apex 语言(一种专为 Salesforce 开发的面向对象编程语言)的能力,微软、ServiceNow 等厂商亦将提供自然语言转代码、工作流、低代码开发等层面的能力;其二是在进一步丰富平台应用的同时大幅降低了应用调用门槛,大语言模型在降低开发门槛的同时也使得各类应用的调用更加便捷,而调用率和调用覆盖面的提升将进一步激发 ISV 的开发热情,从而形成自我强化的飞轮效应,提升应用平台的粘性。就以上能力的强化而言,显然具备成熟的底层应用开发平台和较为完善的开发者生态的平台型厂商
43、更为受益。图 24:Salesforce Einstein GPT for Developers 资料来源:Salesforce 官网 图 25:全球低代码/无代码/智能开发工具市场规模及增速(百万美元,%)资料来源:IDC(含预测),中信证券研究部 0.0%2.0%4.0%6.0%8.0%10.0%12.0%14.0%16.0%18.0%20.0%0.05,000.010,000.015,000.020,000.025,000.020212022E2023E2024E2025E2026ELow codeNo codeIntelligent developer technologiesYoY
44、21 图 26:全球低代码/无代码/智能开发工具市场份额(2021)资料来源:IDC,中信证券研究部 表 6:低代码开发的基本原则 原则原则 内容内容 快速交付 模块化、可重复使用的预构建的功能组件消除了复杂性以及重新构建的需要 协作开发 允许各种利益相关者共同努力,以快速提供最佳的应用程序和体验。经验不足的构建者可以利用专业开发人员构建的功能,从而实现更快、更敏捷的开发过程 可规模化 使开发者能够快速构建端到端的简单或复杂的企业应用 可治理 无代码的开发可能会导致影子 IT 的出现;而低代码治理通过策略和技术来限制和管理应用程序的增长,并限制数据重复、不一致和不安全 战略匹配 应用程序开发必
45、须与路线图目标保持一致,建立并监控与业务价值一致的成功衡量标准,建立批准应用程序开发活动的标准,并监督预算和资源分配 技术标准 低代码开发计划必须建立技术标准和最佳实践,定义开发流程,建立测试和部署的权限和指南,并定义技术培训要求 用户体验 低代码开发必须始终如一地创造积极的用户体验,这促进了生产力的提高 可集成 平台必须能够在不需要专门的集成工具的情况下集成任何数据或系统,预先构建的端到端集成解决方案可缩短实现价值的时间 安全性 低代码只有在它可以产生安全的应用程序时才有效 资料来源:Gartner,中信证券研究部 基础软件基础软件:AI 显著降低产品使用门槛,数据管理最为受益显著降低产品使
46、用门槛,数据管理最为受益,安全、运维,安全、运维等等亦将受益亦将受益 考虑到大语言模型核心在于自然语言的理解和生成能力,这种能力能够实现内容创作、内容整理,能够基于对用户指令的理解嵌入业务流程的生成和自动化,亦能够基于上下文和外部信息的补充实现持续的迭代和推理。但大语言模型的能力并不涉及高性能&高可靠&高可用的数据处理、IT 基础设施的性能监控&告警,亦无法满足恶意攻击的防御需求。与此同时,大模型的训练、部署以及稳定&安全运行仍然需要数据管理、性能监控、信息安全等系列产品的配合和支持。不过,在软件开发环节,大语言模型的确有望凭借对代码的生成和理解能力实现产品和产业链价值的重构;在其他的基础软件
47、环节,大模型也有望通过简化处理方式、降低信息复杂度等维度降低从业人员门槛,拓宽产品覆盖面和变现方式。以下,我们将对数据管理、性能监控、信息安全、软件开发等细分市场展开具体分析:SalesforceAdobeMicrosoftServiceNowPegasystemsSiemensOutSystemsShopifyWixQuickbaseOther 22 数据管理:数据管理:模型预训练阶段需要大规模、多类别、高质量的训练数据,在模型调优阶段,垂类小数据集、提示词工程同样重要。过去由于存储技术、资源和数据库技术的限制,非结构化的数据无法有效保存和调用。但随着存储技术和云计算的不断发展,企业可以拥有
48、充足的、可扩展的存储资源和存储方法。机器学习、自然语言处理、图像识别等人工智能技术也增加了对海量非结构化数据的需求。由此,能够实现海量数据存储、管理、治理的数据湖,实现批量数据的清洗、预处理、特征工程的 Nosql 数据库&数据仓库,实现实时数据的集成、高并发查询&处理的流数据引擎等数据管理市场都将受益于 AI 的高速发展。与此同时,大语言模型能够较好的实现自然语言向 Sql 等专业的数据库操作语言的转化,降低数据分析、机器学习等领域的进入门槛。图 27:数据对 AI 模型的促进作用 图 28:数据对 AI 产品提升的促进作用 资料来源:Medium,中信证券研究部绘制 资料来源:Medium
49、 图 29:2020 年全球数据流量比例(按应用类型)图 30:非结构化数据占比(单位:%)资料来源:IDC,中信证券研究部 资料来源:IDC,中信证券研究部 35.3%15.6%26.3%4.3%1.0%0.7%2.1%10.8%3.9%社交短视频订阅模式的流媒体广告模式的流媒体游戏音乐VR社交媒体通信其他数据80%20%半结构化与非结构化数据结构化数据 23 图 31:全球分析型数据管理和集成市场规模及增速(十亿美元,%)资料来源:IDC(含预测),中信证券研究部 性能监控性能监控:与其他应用类似,大模型在运行过程中仍然需要对于性能指标进行实时的监测和分析,包括CPU和GPU的利用率和负载
50、情况、内存和存储使用情况、网络带宽和延迟、模型训练和推理速度,以及模型的异常情况和错误信息等,这依然需要 ITIM、NPM、日志管理工具的配合。但与此同时,考虑到大模型本身的特殊性,在训练和部署环节同样需要专用的工具完成相关指标的监控、调整和可视化,其中包括:1)实验管理:在训练环节对于学习率、正则强度、批量大小、迭代次数等超参数空间的系统性搜索,选择最优超参数组合,并记录和可视化训练、评估过程;2)性能监控:在推理环节对于损失函数、准确率、F1 值等各类模型性能指标的监控和可视化,横向&纵向比较模型的性能变化。在大模型专用监控工具领域,Weights&Biases、Comet ML、Ariz
51、e、Fiddler,以及 Databricks推出的开源工具 MLflow 等均有相应产品,其中 Weights&Biases 和 MLflow 在产品完整度和用户覆盖面上更为领先。表 7:IT 监控软件市场主要领域及主要玩家 细分市场细分市场 主要功能主要功能 主要参与企业主要参与企业 ITIM&AIOps 监控本地数据中心和云托管环境中IT基础设施组件的可用性和资源利用率。通过跟踪组件的利用率(如风扇速度、CPU温度和使用率、内存利用率),基础结构监视工具可以提供IT 环境运行状况的总体视图。Micro Focus、IBM、CA、BMC SolarWinds APM 监视和优化应用程序的性
52、能和运行状况,不同于其他监视工具,APM 需要跨越不同的 IT 环境来发现软硬件依赖关系之类的问题,并对代码进行端到端跟踪,以便监视应用程序延迟和停机时间 Dynatrace、New Relic、Broadcom、Cisco、(AppDynamics)Log&SIEM 日志是在事件发生时自动生成并加盖时间戳的文件,日志管理包括用于收集、管理和分析由应用程序和基础设施生成的大量日志数据。将日志数据与其他事件关联的实时能力也使这些工具非常适合安全信息和事件管理(SIEM)用例,如漏洞检测和威胁管理,以及识别操作性能问题 Splunk、Elastic、Datadog NPM 允许客户在不同 IT 环
53、境中监控和可视化网络流量,以便更快地解决停机问题并优化网络性能 NetScout、SolarWinds 资料来源:Gartner,中信证券研究部 0.0%5.0%10.0%15.0%20.0%25.0%0.020.040.060.080.02002020212022E2023E2024E2025E2026E分析型数据集成工具持续分析工具非关系分析型数据存储平台数据仓库YoY 24 图 32:全球 IT 性能监控市场规模及增速(百万美元,%)资料来源:IDC(含预测),中信证券研究部 图 33:模型开发/调试/部署/监控全流程 资料来源:Anyscale 官网 信息安全信息
54、安全:对于大模型厂商而言,由于大模型在部署上线之后即允许 B 端&C 端客户公开访问,因此其安全防护的逻辑和其他应用程序并无本质区别。因此,我们看到 ChatGPT 采用 Cloudflare 的方案防范 DDOS 攻击、执行访客流量验证策略;此前因 Redis 开源库漏洞导致的 ChatGPT 故障、数据泄露问题亦表明漏洞扫描、云端工作负载安全、安全态势管理等产品在大模型时代同样具有用武之地。对于大模型用户而言,一方面需要对于用户使用权限、数据上传权限进行严格限制,在这一方面安全网关产品(CASB、SWG)和数据丢失保护产品(DLP)将发挥显著作用,网关产品将配合身份认证工具对用户访问权限予
55、以细粒度控制,而 DLP 产品将阻止敏感数据的上传;另一方面亦需要针对黑客利用 ChatGPT 批量生产的钓鱼信息予以针对性防护,这就需要通过对邮件来源、正文、附件、URL链接等进行情绪分析、结构分析等进行相应识别,比如 Cloudflare 近期就针对AI 生成的钓鱼邮件推出了专门的邮件安全方案。当然,对于安全运营团队(SOC)而言,大语言模型的引入能够显著提升安全信息的可读性,并辅助生成易于理解的安全事件解决方案,降低安全运营的门槛。0.0%2.0%4.0%6.0%8.0%10.0%12.0%14.0%0.05,000.010,000.015,000.020,000.025,000.030
56、,000.020212022E2023E2024E2025E2026EOn premisesPublic cloudYoY 25 图 34:ChatGPT 采用 Cloudflare 的方案保护 Web 端应用安全 资料来源:Cloudflare 官网 图 35:全球应用程序保护&可用性市场规模及增速(百万美元,%)资料来源:IDC(含预测),中信证券研究部,注:2022 年及以后为预测数据 图 36:ZTNA 主要架构 资料来源:中信证券研究部绘制 15%15%16%16%17%17%18%18%19%19%20%00400050006000202
57、2420252026API securityBot managementDDoS mitigationWeb application firewallYoY 26 图 37:全球安全网关市场规模及增速(百万美元,%)资料来源:IDC(含预测),中信证券研究部 图 38:全球数据丢失保护市场规模及增速(百万美元,%)资料来源:IDC(含预测),中信证券研究部 图 39:全球消息安全市场规模及增速(百万美元,%)资料来源:IDC(含预测),中信证券研究部 0%2%4%6%8%10%12%00400050006000700020202021E2022E2023E2024E202
58、5ECASBSWGYoY0.0%2.0%4.0%6.0%8.0%10.0%12.0%14.0%16.0%18.0%02004006008000020021E2022E2023E2024E2025EAmericasEMEAAsia/PacificYoY0.0%2.0%4.0%6.0%8.0%10.0%12.0%14.0%16.0%00400050006000700020212022E2023E2024E2025E2026EOn premisesPublic cloudYoY 27 表 8:XDR 的核心能力
59、核心能力核心能力 具体描述具体描述 全局安全控制点 支持对终端、网络、云和工作负载的安全防护和控制能力,获取更大范围的安全可见性,支持跨产品、跨层级的安全数据获取、威胁检测和事件响应。安全集成和互操作能力 把各种安全日志、告警等数据进行汇总,以便于进一步的威胁分析;联动不同层面的安全产品,阻断不安全的访问请求、隔离被攻陷的主机、修复系统漏洞/问题、降低用户权限、下发检测策略等响应执行操作。大数据处理和机器学习分析能力 汇聚了全局的安全数据(包括各种安全日志、告警、网络流量、外部威胁情报等),比单个安全产品提供更加强大的威胁检测能力。海量安全数据的处理需要具备大数据存储、传输、分析等能力,需要依
60、赖机器学习等人工智能算法增强对高级威胁的分析、攻击杀伤链的理解和还原;让安全人员可以聚焦处理数量有限、真正有影响的安全事件。自动化编排能力 提供自动化的技术和工具,减少需要企业安全人员手动操作的频率和人为操作出错的概率,提高安全运营效率;XDR 支持安全响应任务的编排能力,让用户对文件、权限、主机和网络执行经过预先设计编排过的手动和自动的补救措施,提高局部威胁发现、全局快速响应的的能力。威胁情报能力 通过提供或集成威胁情报服务,增强了企业用户的安全可见性,提升威胁检测时效性和能力。资料来源:Gartner,腾讯安全,中信证券研究部 软件开发软件开发:对于软件开发者而言,新特性的设计和开发是具有
61、价值的,但编写完成的代码由存储库转移到实时生产环境中仍需要经历集成、测试、发布、运维等多个流程,这些流程对于客户而言并没有附加价值。因此,企业开发者团队需要借助 Devops 工具自动化低价值的流程,以更快实现新功能的发布。正是由于软件开发流程有价值的环节体现在项目管理&协作和代码编写&托管两个节点,因此这两个节点上的头部参与者具备整合软件开发全链条的较大潜力。根据 IDC 的统计,2021 年全球软件开发市场 Top2 的玩家分别为 Atlassian 和微软,恰好对应项目管理&协作、代码编写&托管两个节点的龙头。根据 IDC,在大语言模型普及之前,Atlassian 的份额以及份额获取速度
62、持续领先于微软。但大语言模型普及之后,GitHub CoPilot 能力的强化大幅提升了开发效率,开发链条的核心有可能由项目管理向代码编写&托管转移,这在一定程度上可能削弱 Atlassian 的竞争优势和平台化潜力,而更为利好微软的全链条整合。当然,与 GitHub 在同一环节竞争的 GitLab 更有可能受到直接冲击。图 40:敏捷软件开发:短的开发“冲刺”资料来源:Pivotal.io 28 图 41:Devops 流程 资料来源:中信证券研究部 图 42:全球软件开发管理市场规模及增速(百万美元,%)资料来源:IDC(含预测),中信证券研究部 图 43:全球软件开发管理市场份额(202
63、1)资料来源:IDC,中信证券研究部 0.0%5.0%10.0%15.0%20.0%25.0%0.02,000.04,000.06,000.08,000.010,000.012,000.014,000.016,000.018,000.020212022E2023E2024E2025E2026EOn premisesPublic cloudYoYAtlassianMicrosoftIBMBroadcomGitLabPerforce SoftwareJFrogMicro FocusFlexera 29 图 44:CoPilot 为开发者提供代码建议 资料来源:GitHub CoPilot 产业生态
64、:产业生态:更加更加紧密、复杂的软件分工协作体系紧密、复杂的软件分工协作体系 人工智能浪潮带来的另一个变化是科技人工智能浪潮带来的另一个变化是科技巨头构建以人工智能服务为核心的新商业模巨头构建以人工智能服务为核心的新商业模式,使软件产业分工更加明确。式,使软件产业分工更加明确。LMaaS(大语言模型即服务)将成为 AI 服务提供商的主要商业模式,以泛用的大语言模型为基础统一过去公有云中的繁杂 PaaS 层,并更好地融入软件层。大语言模型以语言为出发点,相较于过去的小型模型具备更好的泛用性。如ChatGPT 等大语言模型拥有广泛知识和技能,能应对不同领域问题。基于大语言模型的公有云服务能提供比原
65、先更优的PaaS+SaaS层体验,用户通过单一模型可对接多种外部API并更好地理解用户意图。图 45:基于 NLP 的大语言模型拥有优秀的泛用性,将成为各类任务的底座 资料来源:nexocode 目前以目前以 OpenAI&微软为代表的厂商已经构建起以微软为代表的厂商已经构建起以 LMaaS 为核心的商业模式,围绕为核心的商业模式,围绕GPT 逐步向上下游拓展生态。逐步向上下游拓展生态。目前 OpenAI 的主要模型包括 GPT-4、GPT-3.5、Dalle2、30 Whisper、Embedding 等,包含了泛用大模型、图片、语音、微调等多个维度,其中最为泛用的 GPT 类模型将作为一个
66、接口根据用户需求调用不同的模型。图 46:OpenAI 的六大类模型,其中 Chat 是面向用户的核心入口 资料来源:OpenAI 官网 定价方面,定价方面,OpenAI 的的 LMaaS 模型提供了订阅以及按量收费两种模式。模型提供了订阅以及按量收费两种模式。订阅模式主要开放给个人用户,用户根据使用需求支付周期性费用,享受一定时期内的模型服务。API按量收费模式主要开放给使用较少的个人用户与体量较大的企业用户,用户根据实际调用API 的数据量或是席位数支付费用,这样用户可以根据业务量灵活调整支出。表 9:OpenAI 定价模式 GPT-4 Model Prompt Completion 8K
67、 context 0.03/1K tokens 0.06/1K tokens 32K context 0.06/1K tokens 0.12/1K tokens Chat Model Usage gpt-3.5-turbo 0.002/1K tokens InstructGPT Ada(Fastest)0.0004/1K tokens Babbage 0.0005/1K tokens Curie 0.0020/1K tokens Davinci(Most powerful)0.0200/1K tokens Fine-tuning models Model Training Usage Ada
68、0.0004/1K tokens 0.0016/1K tokens Babbage 0.0006/1K tokens 0.0024/1K tokens Curie 0.0030/1K tokens 0.0120/1K tokens Davinci 0.0300/1K tokens 0.1200/1K tokens Embedding models Model Usage Ada 0.0004/1K tokens 资料来源:OpenAI 官网,中信证券研究部 31 插件功能(插件功能(Plugins)使)使 LMaaS 能够连接不同的外部能够连接不同的外部 API,极大地扩展了大语言模型,极大地
69、扩展了大语言模型的上层软件生态的上层软件生态。OpenAI 于 2023 年 3 月在 ChatGPT 中推出插件接口,旨在接入小公司的微调成果。第三方厂商可将自有数据源和部分算法作为 ChatGPT 上的插件,使 ChatGPT能调用插件中的外部 API 接口获取信息。插件提供者使用 OpenAPI 标准编写 API,此 API将被编译成一个提示,告知 ChatGPT 如何使用 API 增强其答案。用户选择对应插件后,如 ChatGPT 需从 API 获取信息,它将发出请求并在回应前将信息添加到上下文中。插件接口简化了小公司微调大语言模型的难度,并丰富了基于大语言模型的生态环境。第三方厂商无
70、需接触部署大语言模型,降低了微调实施的难度。图 47:ChatGPT 目前支持的部分插件 资料来源:ChatGPT 关联落地(关联落地(Grounding)是)是 LMaaS 模式中协调外部软件模式中协调外部软件 API 与大语言模型生成内容与大语言模型生成内容可靠性的关键步骤。可靠性的关键步骤。微软的 Copilot 大量使用关联落地技术,确保大语言模型为办公软件输出稳定结果。根据微软技术文档,Copilot 通过 Grounding 提高接收提示质量,确保模型准确执行用户指令。如用户要求 Word 根据数据创建文档,Copilot 会将提示发送至Microsoft Graph 以检索上下文
71、和数据,修改并优化用户提示(例如加入用户真实业务场景数据示例以提高准确性),然后将其发送到GPT-4大语言模型。响应结果被发送到Microsoft Graph 进行额外的 Grounding、安全性和合规性检查,最后将响应和命令发送回 Microsoft 365 应用程序。通过 Grounding,Copilot 将人类语言表述根据实际数据更换成大语言模型更易理解的提示,完成多模态转换并提升指令准确性。32 图 48:Grounding 本质上是对用户指令优化并让大语言模型更精准理解 资料来源:Google AI Blog 对于用户而言,对于用户而言,LMaaS 体验优于原先的公有云服务,简化
72、了本地部署与调试过程。体验优于原先的公有云服务,简化了本地部署与调试过程。LMaaS 通过云服务封装复杂技术问题,使用户无需关注底层实现。尽管小公司无力研发底层大语言模型,但可通过微调形式服务垂直领域需求。LMaaS 平台可根据用户需求,对通用 AI 模型进行特定任务微调,提高模型在特定领域表现。用户通过上传训练数据,实现模型个性化定制,进一步提升 AI 模型在业务场景中的实用性和准确性。33 图 49:微调的存在让大语言模型可以满足不同垂直领域的需求 资料来源:OpenAI 技术文档 在在 LMaaS 商业模式下,我们认为行业最终将形成商业模式下,我们认为行业最终将形成 AI 巨头提供泛用性
73、模型以及服务主巨头提供泛用性模型以及服务主要要通用通用需求,中小公司切入特定垂直行业并根据需求微调优化模型的格局。需求,中小公司切入特定垂直行业并根据需求微调优化模型的格局。这有利于发挥各自优势,使大型 AI 企业专注于提供稳定、高效基础模型,降低成本,提高性能和覆盖范围。同时,中小型公司充分发挥行业专长和敏捷性,为特定行业客户提供定制化、高度针对性解决方案。他们可以与 AI 巨头合作,利用泛用性模型为基础,进行微调优化,满足垂直行业的具体需求。这将为行业带来更多创新、快速响应和精细化的服务,有助于进一步提升 AI 技术在各行各业的落地应用效果。此外,这种格局还将推动行业生态的繁荣,鼓励更多创新型中小企业和创业团队投入到 AI 领域。他们可以专注于解决特定领域问题,利用大型 AI 公司提供的基础模型资源降低创业门槛和技术难度,从而反哺整个行业。在这种格局下,企业之间的合作将变得更加紧密,形成一个互补的生态系统。