上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

2024AIGC行业支持政策、商业模式、产业链及相关公司分析报告(41页).pdf

编号:156113 PDF 41页 6.69MB 下载积分:VIP专享
下载报告请您先登录!

2024AIGC行业支持政策、商业模式、产业链及相关公司分析报告(41页).pdf

1、2023 年深度行业分析研究报告 行业研究报告 慧博智能投研 目录目录 一、行业概述.1 二、行业发展情况.2 三、政策支持?AIGC?产业发展.5 四、商业模式.6 五、产业链分析.7 六、相关公司.34 七、未来发展趋势.38 一、行业概述一、行业概述 1、概念、概念AIGC(AI-Generated Content)本质上是一种内容生产方式,即人工智能自动生产内容,是基于深度学习技术,输入数据后由人工智能通过寻找规律并适当泛化从而生成内容的一种方式。过往的内容创作生态主要经历了 PGC、UGC 到 AIUGC 的几个阶段,但始终难以平衡创作效率、创作成本及内容质量三者之间的关系,而 AI

2、GC 可以实现专业创作者和个体自由地发挥创意,降低内容生产的门槛,带来大量内容供给。2、AI 与与 AIGC 的演进历程:从决策判别到创造生成,人工智能进入双的演进历程:从决策判别到创造生成,人工智能进入双“G”时代时代 AI 的发展经历了从决策式 AI 到生成式 AI 的过程。在 2010 年之前,AI 以决策式 AI 为主导,决策式 AI学习数据中的条件概率分布,底层逻辑是 AI 提取样本特征信息,与数据库中的特征数据进行匹配,最后对样本进行归类,主要针对对样本的识别和分析。2011 年之后随着深度机器学习算法以及大规模预训练模型的出现,AI 开始迈入生成式 AI 时代,生成式 AI的特征

3、是可以根据已有的数据进行总结归纳,自动生成新的内容,在决策式 AI 决策、感知能力的基础上开始具备学习、执行、社会协作等方面的能力。2022 年 11 月上线的 AIGC 应用 ChatGPT,凭借其在语义理解、文本创作、代码编写、逻辑推理、知识问答等领域的卓越表现,以及自然语言对话的低门槛交互方式,迅速获得大量用户,于 23 年 1 月突破 1亿月活,打破前消费级应用的增速记录。当下人工智能在生成(Generation)和通用(General)两条主线上不断发展。二、行业发展情况二、行业发展情况 1、中国中国 AIGC 产业市场规模产业市场规模 根据第 50 次中国互联网络发展状况统计报告,

4、截至 2022 年 6 月,中国互联网普及率已高达74.4%。在网民规模持续提升、网络接入环境日益多元、企业数字化进程不断加速的宏观环境下,AIGC技术作为新型内容生产方式,有望渗透人类生产生活,为千行百业带来颠覆变革,开辟人类生产交互新纪元。艾瑞咨询预测,2023 年中国 AIGC 产业规模约为 143 亿元,随后进入大模型生态培育期,持续打造与完善底层算力基建、大模型商店平台等新型基础设施,以此孕育成熟技术与产品形态的对外输出。2028 年,中国 AIGC 产业规模预计将达到 7202 亿元,中国 AIGC 产业生态日益稳固,完成重点领域、关键场景的技术价值兑现,逐步建立完善模型即服务产业

5、生态,2030 年中国 AIGC 产业规模有望突破万亿元,达到 11441 亿元。2、多模态已成趋势多模态已成趋势 按模态划分,大模型可分为自然语言处理(按模态划分,大模型可分为自然语言处理(NLP)大模型,视觉()大模型,视觉(CV)大模型、多模态大模型等。按)大模型、多模态大模型等。按应用场景划分,大模型可分为通用大模型和行业大模型。应用场景划分,大模型可分为通用大模型和行业大模型。通用大模型是指可在不进行微调或少量微调的情况下完成多场景任务的大模型,具有强大的泛化能力,ChatGPT、华为盘古大模型以及最新发布的Gemini 都是通用大模型。行业大模型则利用行业知识对大模型进行微调,以满

6、足在金融、汽车、传媒等不同领域的需求,如金融领域的 BloombergGPT、汽车领域的毫末 DriveGPT、法律领域的LawGPT_zh 等。预训练大模型按照模态可以分为文本、图像、视频、代码、音乐生成等多种,预训练大模型按照模态可以分为文本、图像、视频、代码、音乐生成等多种,但从底层架构上都分属两类。Transformer 是一种编解码模型框架,适用于处理文本、代码这类强连续性生成任务;Diffusion、GAN、NeRF 等框架善于处理图像生成类任务。叠加文-图转换技术可以形成文生图模型。由单模态模型在实际训练时融合其他模态技术,可形成多模态、跨模态大模型,如 GPT-4、文心一言、M

7、idjourney等,由于多模态模型可接受文本、图像等不同输入输出形式,对应用场景能够更广泛适配,着力发展多模态模型成为产研两界共同趋势。3、进一步深化,其中文生视频能力将进一步提升进一步深化,其中文生视频能力将进一步提升 在目前的市场下,AI 已经具备生成文本、音频、图像、视频的能力。基础的生成式 AI 以文本模态为主要特征,音频、图像、视频等模态市场热度较高。文生图像以 CLIP 为主要训练的神经网络模型,其中文本和图像通过编码器进行分解,分解后进行映射,完成训练,文生音频具备相似的训练模式。随着大模型多模态能力升级,文生视频快速发展。继文生图能力融入各个大模型之后,文生视频成为大模型多模

8、态应用的新趋势。近期多家厂商发布相关产品或更新,大幅提升文生视频效果。三、政策支持三、政策支持 AIGC 产业发展产业发展 我国高度重视和支持我国高度重视和支持 AIGC 产业的发展。产业的发展。2023 年以来,国家陆续出台多项鼓励和支持 AIGC 产业发展的政策,为我国 AIGC 产业的发展护航。7 月 13 日,网信办等七部门联合发布生成式人工智能服务管理暂行办法,为大模型的备案提供了政策依据。自 8月份以来,百度文心一言、商汤的商量SenseChat、百川智能的百川大模型等通过了生成式人工智能服务管理暂行办法备案,开始面向全社会开放服务。大模型备案工作正式启动。北京市、上海市、深圳市、

9、成都市等陆续发布 AIGC 利好政策,推动我国 AIGC 产业发展。四四、商业模式商业模式 AIGC 商业模式中,呈现多样化发展,目前处于持续探索阶段。商业模式中,呈现多样化发展,目前处于持续探索阶段。目前传统的按量收费模式和灵活的SaaS 订阅模式为主流方向,对于按量收费模式,AIGC 可以根据用户使用量进行收费,比如按照 API 调用的次数、使用的数据量等来计费。这种模式适合于对 AI 需求较为稳定的企业或个人,他们可以通过预付费或后付费的方式来使用 AIGC 服务。对于 SaaS 订阅模式,AIGC 可以提供灵活的订阅服务,用户可以根据自己的需求选择不同的服务级别和定价。这种模式适应于需

10、求不确定的用户,可以灵活随时调整订阅级别或取消订阅。AIGC 的商业模式多样化为企业提供了更多的选择和可能性,有助于推动行业的创新和发展。随着 ChatGPT引爆大模型市场,MaaS(Model as a Service,模型即服务),成为继 SaaS、IaaS、PaaS 之后的新型云服务方式。MaaS 将人工智能大模型变成可服务化的产品,用户无需自建底层基础设施,只需通过 API 接口调用即可使用大模型服务,MaaS 通常有推理、微调、深入开发三种服务方式,降低使用门槛的同时也可以大幅提高大模型的使用效率。科技厂商 MaaS 商业模式主要分为三种:1)订阅制模式:将模型产品化并通过提供增值服

11、务获取收入,例如 ChatGPT Plus;2)嵌入其他产品获得引流式收入:例如微软Microsoft 365 服务全面接入 AI 驱动工具 Copilot,其由 OpenAI 的 GPT-4技术驱动,出现在 Microsoft 365 的侧边栏,可作为聊天机器人随时召唤,带来更智能、更高效的办公体验的同时,获得引流式收入;3)API 服务调用或定制开发:如文心千帆大模型平台,是面向企业开发者的一站式大模型开发及服务运行平台,提供基于文心一言底层模型(ErnieBot)的数据管理、自动化模型定制微调以及预测服务云端部署一站式大模型定制服务。五五、产业链分析、产业链分析 AIGC 产业可分为三层

12、,其中模型层和应用层值得关注。产业可分为三层,其中模型层和应用层值得关注。AIGC 现有产业链由数据供给、模型开发与定制、应用与分发构成。目前来看,模型层为关键因素之一;其次,应用层发展空间巨大。上游数据供给由收集大量原始数据对其进行预处理,以便提供给模型训练,投资确定性强。在中游,使用注释数据开发和训练 AI 模型以生成内容,在垂直细分领域进行二次开发,来适应定制化需求;下游协助用户使用模型和算法生成内容,例如:文本、图像、视频等。基于不同的价值创造逻辑,将生成的内容分发到各种渠道。1、基础设施层:、基础设施层:需要大算力,国产需要大算力,国产 AI 芯片和服务器厂商迎来发展机遇芯片和服务器

13、厂商迎来发展机遇 从算力供给而言,可以分为通用算力、智能算力和超算算力。从算力供给而言,可以分为通用算力、智能算力和超算算力。算力实现的核心是 CPU、GPU、FPGA、ASIC 等各类计算芯片,并由计算机、服务器、高性能计算集群和各类智能终端等承载,海量数据处理和各种数字化应用都离不开算力的加工和计算,算力数值越大代表综合计算能力越强,常用的计量单位是 FLOPS(每秒执行的浮点数运算次数)。算力是设备根据内部状态的改变,每秒可处理的信息数据量。算力是设备根据内部状态的改变,每秒可处理的信息数据量。算力的载体发展经历了以算盘和机械计算器为代表的时代到基于架设互联网基础平台的服务器的历程。在过

14、去 20 年,随着算力载体的丰富程度得到了极大提升,呈现多样化发展趋势。算力架构可以拆解为芯片、设备、软件,呈现算力架构可以拆解为芯片、设备、软件,呈现“云云-边边-端端”一体格局。一体格局。未来将形成云端侧负责大体量复杂计算、边缘侧负责简单计算执行、终端侧负责感知交互的泛在算力部署形式。(1)大模型的实现需要十分强大的算力来支持训练过程和推理过程大模型的实现需要十分强大的算力来支持训练过程和推理过程 大模型的实现需要十分强大的算力来支持训练过程和推理过程。大模型的实现需要十分强大的算力来支持训练过程和推理过程。根据 OpenAI 数据,训练 GPT-3175B的模型,需要的算力高达 3640

15、PF-days(即以 1PetaFLOP/s 的效率要跑 3640 天)。2018 年以来,大模型的参数量级已达到数千亿参数的量级规模,对算力的需求将呈现指数级增长。(2)AI 芯片进入舞台中央,广泛应用于训练或推理芯片进入舞台中央,广泛应用于训练或推理 AI 芯片进入舞台中央,广泛应用于训练或推理。芯片进入舞台中央,广泛应用于训练或推理。AI 芯片是指所有能够用于人工智能的芯片,主要包括GPU、ASIC、FPGA 三大类,海内外大型厂商集中于 GPU 和 ASIC 架构。AI 芯片按应用场景可以分为训练芯片和推理芯片:训练芯片用于算法模型开发、训练,利用标记的数据,通过该芯片“学习”出具备特

16、定功能的模型;推理芯片用于应用层,利用训练出来的模型加载数据,通过芯片计算“推理”出各种结论。按照部署的位置可以分为云端芯片和边缘端芯片:云端芯片部署在公有云、私有云或者混合云上,不但可用于训练,也可用于推理,算力强劲;边缘端芯片主要应用于嵌入式、移动终端等领域,此类芯片一般体积小、耗电低,性能要求也相对不高,一般只需具备一两种 AI 能力,用于推理。GPU 大规模并行运算优势明显,是大规模并行运算优势明显,是 AI 芯片市场的首选。芯片市场的首选。GPU 即图形处理器,主要分为传统 GPU 和GPGPU,分别用于图形渲染和通用计算,用于 AI 服务器的 GPU 一般指后者。按照 IDC 统计

17、,我国2023 年上半年 GPU服务器占据加速计算服务器 90%的比例,其余 NPU、FPGA 等形式的加速计算服务器占比为 10%,此前几年 GPU 也一直是主流选项。GPU 市场目前仍由英伟达、AMD 等国外厂商主导,国内正处于发展起步阶段,在 AI 芯片市场的竞争力较弱,未来在大模型技术发展的催化下,叠加美国限制向中国出口高端 GPU 芯片等因素,国产 GPU芯片将迎来发展机遇。据 IDC 统计,2023 年上半年,中国加速芯片的市场规模超过 50万张。从品牌角度看,中国本土 AI 芯片品牌出货超过 5 万张,占比整个市场 10%左右的份额。全球全球 GPU 市场竞争格局:英伟达独占鳌头

18、,市场竞争格局:英伟达独占鳌头,AMD 跟随其后。跟随其后。英伟达是全球 GPU 芯片市场的绝对龙头,AMD 紧随其后。根据 JPR 数据,2022 年二季度,英伟达在全球独立 GPU 芯片市场占有率为 79%,AMD 以 20%的市占率跟随其后。英伟达于今年 11 月份发布的新一代人工智能芯片 H200,相比 H100内存速度和容量均实现大幅升级,在用于推理或生成问题答案时,性能较 H100 提高 60%至 90%,预计将于 2024 年二季度上市。H200 将进一步提升大模型的训练与推理效率。近期,美国对华半导体出口管制升级,英伟达拟推出 H20、L20 和 L2 三款芯片,以替代被美国限

19、制出口的 H100。AMD 于2023 年 6 月推出了针对 AI 的最新款处理器芯片 MI300A 和 MI300X,12 月 AMD 举行“Advancing AI”发布会表示 MI300A已进入量产阶段,而 Instinct MI300X 则已开始出货。海外算力能力不断提升,叠加美国对华半导体出口管制升级,将倒逼我国国产 AI 芯片产业链加快成熟。userid:93117,docid:156029,date:2024-03-08, 国内国内 GPU 产品发展势头良好,产品性能已可对标国际主流产品。产品发展势头良好,产品性能已可对标国际主流产品。国内目前部署 GPU赛道的厂商主要有海光信息

20、、景嘉微、沐曦、壁仞科技、芯动科技等。当前,国内 GPU 产品发展势头良好,产品性能已可对标英伟达主流产品。以海光信息为例,海光信息 DCU(Deep Computing Unit 深度计算器,是GPGPU 通用图形处理的一种)产品具备强大的计算能力和高速并行数据处理能力,产品性能已可对标国际上同类型高端产品的水平,已成功实现商业化应用。目前,海光信息第二代 DCU 产品-深算二号也已经发布并实现了在大数据处理、人工智能、商业计算等领域的商业化应用,具有全精度浮点数据和各种常见整型数据计算能力。根据海光信息公司公告,公司在 2023 年三季度发布深算二号,性能相比于深算一号提升 100%以上。

21、ASIC 是一种定制芯片,可提供更高能效表现和计算效率。是一种定制芯片,可提供更高能效表现和计算效率。ASIC(专用芯片)是一种为特定目的、面向特定用户需求设计的定制芯片,具备性能更强、体积小、功耗低、可靠性更高等优点。在大规模量产的情况下,还具备成本低的特点。ASIC芯片主要应用于深度学习加速,在推理侧,相较其他 AI 芯片在效率和速度方面具有明显优势。以谷歌为例,谷歌早在 2015 年就发布 TPU v1,与当时通用 CPU 和 GPU的神经网络计算相比,TPU v1 带来了 15-30倍的性能提升和 30-80 倍的能效提升,以较低成本支持谷歌的多项服务,仅可用于推理;2017 年发布

22、TPU v2,用于加速大量的机器学习和人工智能工作负载,包括训练和推理;2018 年发布 TPU v3,算力和功率大幅增长,采用了当时最新的液冷技术;2020 年和 2021 年分别发布 TPU v4i 和 v4,应用 7nm 工艺,晶体管数大幅提升,算力提升,功耗下降;2023年谷歌发布 TPU v5e 和 TPU v5p,12 月最新发布的 TPU v5p 与 TPU v4 相比浮点运算性能进一步大幅提升,高带宽内存方面是 TPU v4的近 3 倍。国内国内 ASIC 产品发展势头良好,部分国产产品发展势头良好,部分国产 AISC 芯片性能已经达到国际前列水平。芯片性能已经达到国际前列水平

23、。我国的 AISC芯片产品发展迅速,国内主要 ASIC 芯片企业有寒武纪、澜起科技、黑芝麻、地平线、华为海思、阿里巴巴寒武纪、澜起科技、黑芝麻、地平线、华为海思、阿里巴巴等。部分国产 AISC技术已经达到国际前列水平,如在半精度浮点算力方面,华为海思的昇腾 910超过谷歌的 TPU v4 和 TPU v5e。华为推出的昇腾 910B 芯片,仍然采用华为自研 Ascend架构,其整体性能和能效均达到了国际领先水平,目前华为昇腾 910B 计算能力已经可以对标英伟达 A100。寒武纪寒武纪 ASIC 产品不断迭代,最新一代产品有望承接国内产品不断迭代,最新一代产品有望承接国内 AI 算力需求。算力

24、需求。寒武纪的第三代云端推训一体芯片思元 370,最大算力高达 256TOPS(INT8),是第二代产品思元 270 算力的 2 倍。此外,与市场主流同尺寸芯片相比,思元 370 系列加速卡在实测性能和能效方面表现出一定优势。公司的思元 370 芯片及加速卡与数家头部互联网企业完成适配工作,已经进入了批量销售环节;与金融、运营商等众多行业领域中的头部公司实现了批量销售或达成合作意向。思元 590 是寒武纪最新一代云端智能训练芯片,目前尚未正式发布。思元 590 采用 MLUarch05 全新架构,实测训练性能较在售旗舰产品有大幅提升,有望承接国内逐渐升级的 AI 算力需求。(3)AI 服务器借

25、助加速卡获取强大算力,市场需求快速增长服务器借助加速卡获取强大算力,市场需求快速增长 AI 服务器是指能够提供人工智能(AI)的数据服务器,具有强大的图形处理和高性能计算能力,既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的 AI 模型和服务,能支持多种常用的 AI 技术,如机器学习、自然语言处理、计算机视觉、生物信息分析等。AI 服务器与普通服务器的区别主要在于计算架构的不同,AI 服务器通常根据应用场景的不同,采用 CPU+GPU/ASIC/FPGA 或其他加速卡的异构式计算架构。当前国内外当前国内外 AI 服务器市场规模快速增长。服务器市场规模快速增长。根据 IDC 与

26、浪潮信息发布的2023-2024年中国人工智能计算力发展评估报告预计,全球人工智能服务器市场规模将从 2022 年的 195 亿美元增长到 2026年的347 亿美元,4 年复合增长率约 15.5%。2023 年中国人工智能服务器市场规模将达到 91亿美元,同比增长 82.5%,2027 年将达到 134 亿美元,2022-2027年 5 年年复合增长率达 21.8%。当前国内外当前国内外 AI 服务器市场规模快速增长。服务器市场规模快速增长。根据 IDC 与浪潮信息发布的2023-2024年中国人工智能计算力发展评估报告预计,全球人工智能服务器市场规模将从 2022 年的 195 亿美元增长

27、到 2026年的347 亿美元,4 年复合增长率约 15.5%。2023 年中国人工智能服务器市场规模将达到 91亿美元,同比增长 82.5%,2027 年将达到 134 亿美元,2022-2027年 5 年年复合增长率达 21.8%。互联网互联网云巨头贡献云巨头贡献 AI 服务器主要需求,资本投入力度有望维持增长。服务器主要需求,资本投入力度有望维持增长。AI 服务器市场的下游主要是以大型云计算厂商为主。TrendForce 统计数据显示,2022 年 AI 服务器采购量中,美国四家云厂商,微软、谷歌、Meta、AWS 的采购量位居前四,合计占比约 66%。国内企业字节跳动、腾讯、阿里巴巴、

28、百度紧随其后,在 AI 基础设施方面的建设步伐较为领先。IDC 统计数据显示,2023 年上半年,互联网依然是我国加速服务器最大的采购行业,占整体加速服务器市场超过一半的份额,此外金融、电信和政府行业均有超过一倍以上的增长。未来,随着 AIGC、边缘计算、自动驾驶等新兴技术和应用的不断普及,各大云厂商有望持续加大在 AI 相关基础设施方面的投入,持续为 AI 基础设施市场注入发展动力。(4)数据中心需对高速巨量运转需求做出应对数据中心需对高速巨量运转需求做出应对 预训练大模型的训练推理需要巨量数据资源与高性能计算机的全天候高速运转,对数据中心的网络带宽、能源消耗与散热运维等能力提出更高要求。首

29、先,网络是数据中心最为重要的组成部分,随着数据量与计算量的飞涨,数据中心需优化网络带宽,实现数据在节点内与节点间的高吞吐低延迟的传输与连接,并进一步优化计算集群的架构与设计,保证数据中心的高效利用率;其次,能源消耗与碳排放问题是数据中心亟需关注的重点问题。普通服务器的标准功耗一般在 7501200W,而 AI 模型运行时会产生更多的能耗,以 CPU+AI 芯片(搭载 4 卡/8 卡)异构服务器为例,系统功耗一般会达到 1600W6500W。根据斯坦福大学发布的2023 年 AI 指数报告数据显示,GPT-3 模型训练耗费的电力可供一个美国家庭使用数百年,CO排放量也相当于一个家庭排放近百年;另

30、一方面,基于大模型算力需求的高能耗运行,其热量释放呈现倍增态势。为了确保服务器能够长期处于适合的工作温度,数据中心将更注重系统设计和散热技术的发展应用。大模型散热需求加速由风冷到液冷的技术升级,进一步提升经济性、节能效果和散热效率等。散热也将更贴近发热源,由机柜级散热、服务器级到芯片级发展。目前,中国大力推进“东数西算”工程,并发布新型数据中心发展三年行动计划(2021-2023 年)等政策性文件,引导新型数据中心实现集约化、高密化、智能化建设,在 AIGC 时代下完成中国算力产业在规模、网络带宽、算力利用率、绿色能源使用率等方面的全方位提升。2、模型、模型层面:层面:国产大模型能力持续升级,

31、国产大模型能力持续升级,AIGC 产业未来应用潜力巨大产业未来应用潜力巨大(1)大模型迭代进入快速发展阶段,大模型迭代进入快速发展阶段,GPT 大模型成为关注焦点大模型成为关注焦点 大模型算法的迭代可以大致分为萌芽阶段、探索阶段和快速发展阶段三个阶段。大模型算法的迭代可以大致分为萌芽阶段、探索阶段和快速发展阶段三个阶段。第一阶段以 CNN 为代表的传统神经网络模型为主。1980年,卷积神经网络的雏形 CNN 诞生;1998年,以卷积神经网络为架构的 LeNet-5 深度学习模型问世,为大模型的发展奠定基础。2006年-2019年,是以 Transformer为代表的卷积神经网络模型阶段。201

32、4 年,对抗式生成网络 GAN 诞生,开启生成模型研究新阶段。2017 年,Google 开创性地提出了 Transformer 架构,随后,OpenAI 和 Google 分别发布了 GPT-1 与BERT 大模型,大模型的性能显著提升。2020 年以后,卷积神经网络模型的参数量激增,多种通用大模型相继问世,其中,OpenAI 在 2023 年 3 月发布的预训练大模型 GPT-4 成为目前关注焦点。Transformer 引入注意力机制,突破引入注意力机制,突破 RNN、CNN 处理长序列的局限。处理长序列的局限。Transformer 模型是由Google 团队的 Ashish Vasw

33、ani 等人发表论文Attention Is All You Need提出的模型概念,是当前大模型领域主流的算法架构基础,其上形成了 BERT 和 GPT(Generative Pre-Trained Transformer)两条主要的技术路线,其中 BERT 的代表性落地项目是谷歌的 AlphaGo。在 GPT3.0 发布后,GPT逐渐成为大模型的主流路线。当前,国内包含百度文心一言、阿里通义千问等在内的几乎所有参数规模超千亿的大型语言模型均采用 GPT模式。Transformer 模型是一个深度学习模型,其标志性特征是采用了 self-attention 机制,可为输入数据的各部分分配不同

34、权重,核心是从关注全部到关注重点,从而节省资源,快速获得最有效的信息。self-attention 机制的引入突破了 RNN 处理长序列的输入,以及 CNN 解决远距离特征依赖问题的局限,使得通过提升参数量来提升预训练大模型的性能成为了可能。国外大模型起步较早,全球人工智能企业领先布局,国内国外大模型起步较早,全球人工智能企业领先布局,国内 2023 年迎来爆发式增长。年迎来爆发式增长。2018年开始,谷歌、OpenAI、英伟达、Meta和微软等大型科技企业纷纷推出自研大模型技术,预训练大模型逐渐成为自然语言处理领域的主流研究。2022 年 11 月 ChatGPT发布仅两个月的时间,线上活跃

35、用户规模超过 1亿人,生成式大模型市场广泛关注,尤其是微软和谷歌两家人工智能领军企业迅速意识到 ChatGPT 对于未来商业的战略意义,开始围绕公司现有业务,在生成式大模型领域加速布局。2023 年受 ChatGPT驱动,大模型发展迈向新阶段,国产大模型一时间也呈现出爆发式增长态势,据赛迪顾问统计,2023年 1-7 月国内共计 64个大模型发布,截至 2023 年 7 月,中国累计已经有 130 个大模型问世。AI 近期在大模型、应用方面变化较为显著,以近期在大模型、应用方面变化较为显著,以 GPT-4V 为标志,向多模态方向发力。在语言处理上有为标志,向多模态方向发力。在语言处理上有所突破

36、所突破,通过视觉能力丰富了多模态对话的可能性,推动了,通过视觉能力丰富了多模态对话的可能性,推动了 AI 在各个领域更为广泛的应用。在各个领域更为广泛的应用。(2)大模型在云端持续升级,云人工智能市场五年大模型在云端持续升级,云人工智能市场五年 CAGR 有望达有望达 32.37%1)海外大厂积极布局云端,明年预计发布多个大模型海外大厂积极布局云端,明年预计发布多个大模型 OpenAI 明年上半年预计发布 GPT-5,Meta 预计已在开发比 GPT4更强大的开源大模型 Llama3。大模型从云到端持续推进,云端继续升级,终端大模型呼之欲出。GPT-5 训练数据来源于互联网数据集和公司专有数据

37、,包括开源和私有数据,涵盖各种数据类型,如文本、图像、音频和视频,将支持更多种类的输入和输出。OpenAI 表示,GPT-5 的终极目标是实现类似人脑的超级 AI,最终实现 AGI(Artificial General Intelligence)。Meta 称正在研发 Llama3,预计将于 2024 年上半年亮相。Llama3被猜测可与GPT-4相匹敌,能够支持生成精密文本、分析和其他输出性服务,并计划保持开源免费。2)云服务产品市场持续扩容,云人工智能市场未来五年云服务产品市场持续扩容,云人工智能市场未来五年CAGR有望达有望达32.37%据 MordorIntelligence 预计,云

38、人工智能市场规模将从 2023 年的 510.4 亿美元增长到 2028 年的 2074亿美元,预测期内(2023-2028 年)复合年增长率为 32.37%。随着企业数量的不断增加以及企业之间的竞争,企业正在积极尝试将人工智能技术与其应用、分析、业务和服务相集成。此外,将公司致力于降低运营成本以提高利润率,推动云端人工智能快速发展,进一步推动预测期内的市场规模增长。(3)边云算法协同发展,推动大模型终端侧落地边云算法协同发展,推动大模型终端侧落地 1)边缘智能向五大方向全面优化,算法支持边缘计算效率提升边缘智能向五大方向全面优化,算法支持边缘计算效率提升 大模型时代,从云到端(边缘侧)算法不

39、断优化升级,其中边缘智能优化方向包括五大方面,包括边云大模型时代,从云到端(边缘侧)算法不断优化升级,其中边缘智能优化方向包括五大方面,包括边云协同、模型分割、模型压缩、减少冗余协同、模型分割、模型压缩、减少冗余数据传输以及轻量级加速体系结构。数据传输以及轻量级加速体系结构。其中,边云协同、模型分割、模型压缩能够减少边缘智能对于计算、存储和设备的需求;减少冗余数据传输以改善传输效率,降低网络资源浪费;轻量级加速体系结构将在硬件和应用方面支持边缘计算效率提升。边云协同云计算和边缘计算相结合,将数据和计算资源分布在云端和边缘设备,实现数据的高效处理和边云协同云计算和边缘计算相结合,将数据和计算资源

40、分布在云端和边缘设备,实现数据的高效处理和传输。传输。云边协同优势明显,1)充分利用云端强大的计算资源;2)在需要实时响应或者断网情况下可借助本地设备完成任务;3)保证数据安全性。2023 年 8 月,KubeEdgeSIGAI 发布 KubeEdgeSednav0.6 及 Ianvsv0.2,全面提升边云协同终身学习的能力和性能;升级三大功能,包括支持图片视频等非结构化数据场景、提供全面基准测试套件和具备未知任务识别与处理能力。模型分割将大量的计算任务分解成不同的部分,把部分或全部计算任务推到边缘,利用不同设备协同解模型分割将大量的计算任务分解成不同的部分,把部分或全部计算任务推到边缘,利用

41、不同设备协同解决问题,能够获得更好的端到端延迟性能和能源效率。决问题,能够获得更好的端到端延迟性能和能源效率。常见的分割方法包括水平分割和垂直分割,水平分割即沿端-边-云进行分割,垂直分割是将层进行融合,以网格的方式进行垂直分区。这种终端与边缘设备协同的方法能有效降低深度学习模型的推断时延,但不同的模型切分点将导致不同的计算时间,因此如何选择最佳的模型切分点是模型分割的关键。模型裁剪可在不影响准确度的条件下对模型模型裁剪可在不影响准确度的条件下对模型“剪枝剪枝”,从而减少对计算、存储等方面的需求。,从而减少对计算、存储等方面的需求。深度学习网络模型在训练过程中形成大量冗余参数,影响模型运行效率

42、。通过模型裁剪去除冗余参数,并不会影响模型的表达能力。在工业视觉识别系统领域,模型裁剪技术已实现应用:利用权重剪裁和迭代裁剪技巧,将提高生产自动化水平和装备运行效率和稳定性等,有利于推动 AI 与边缘计算在工业视觉识别系统的深度融合。减少冗余数据传输通过边云协同、模型压缩、模型共享和边缘缓存方面减少冗余数据传输通过边云协同、模型压缩、模型共享和边缘缓存方面实现。实现。边云协同:只将在边缘设备推断有误的数据传输到云端再次训练,以减少数据传输;模型压缩:在不影响准确度的情况下移除冗余数据,以减少数据的传输;模型共享:例如 AI 模型共享,即同一区域内的 AI 模型训练可以受益其他相关 AI 模型,

43、从而减少计算量;边缘缓存:可进一步减少冗余数据传输、缓解云数据中心压力的解决方案,利用地理位置上相近边缘节点缓存相关内容,当缓存内容能够满足请求时,可以直接从缓存中调用,从而实现快速响应,并且能够减少网络中相同内容的重复传输。轻量级加速体系结构在大模型部署终端侧应用方面至关重要。轻量级加速体系结构在大模型部署终端侧应用方面至关重要。应用方面,英伟达在 Computex2023 大会上发布的模组 JetsonAGXORIN,算力高达每秒 275 万亿次 TOPS,性能是上一代产品的 8 倍,同时发布的工业级模组可以帮助客户在农业、建筑、能源、航空航天、卫星等领域部署边缘 AI 的需求。芯片方面,

44、Fortinet、ARM 分别推出适用于边缘计算的芯片 FortiSP5 和 Hercules、Apollo,FortiSP5 安全芯片防火墙性能大幅提升 17 倍,功耗相比业内高性能通用 CPU降低 88%,为边缘计算提供安全、高效、低成本的数据处理服务;Hercules 和 Apollo 性能最高提升 480倍,同时具有低功耗、小体积、高安全性等优点,使终端设备能够更好地集成 AI 能力,实现更广泛的边缘计算应用。2)混合人工智能处理预将构建混合人工智能处理预将构建“云云+端端”新生态新生态 云端处理人工智能的成本高昂,致使发展高效云端处理人工智能的成本高昂,致使发展高效“云端处理云端处理

45、+边缘设备边缘设备”混合人工智能处理以落地终端的重混合人工智能处理以落地终端的重要性凸显。要性凸显。混合架构具有不同的卸载选项,以便根据模型和查询复杂性等因素在云和设备之间分配处理。具有超过 10亿个参数的 AI 模型已经在手机上运行,其性能和准确度水平与云类似,并且具有 100 亿个或更多参数的模型预计在不久的将来在设备上运行。终端侧大模型主要用终端侧大模型主要用于推理,将拓展边缘设备应用。于推理,将拓展边缘设备应用。混合 AI 将提振 B 端 AI 产品及服务实力,面向行业开发多场景应用、优化 AI 交互体验感、增强工作自动化程度,从而提升工作效率;混合 AI 将优化生成式 AI 的功能性

46、及可用性,推动企业研发以全面化终端 AI 功能,拓展 C 端软件及硬件产品的多样性。混混合人工智能方法几乎适用于所有生成式人工智能应用程序和设备领域,包括智能手机、笔记本电脑、汽合人工智能方法几乎适用于所有生成式人工智能应用程序和设备领域,包括智能手机、笔记本电脑、汽车、机器人和智能物联网终端(车、机器人和智能物联网终端(AIoT)等。)等。(4)终端部署终端部署 AI 大模型,打开云到端新空间大模型,打开云到端新空间 PaLM2 打通从云到边的打通从云到边的 AI 全链路,使全链路,使 AI 边缘部署成为可能。边缘部署成为可能。5 月份,谷歌发布了适用边缘的大模型PaLM2,轻量化模型可以降

47、低边缘侧模型部署成本,开拓 AI 模型在边缘侧推理的场景,将终端 AI 发展进程往前大大推进了一步。同时谷歌还发布了 AI+安卓、AI+边缘设备(主要是可穿戴设备)以及 AI+安卓 App 的 Demo 和专业为安卓开发程序的机器人 StudioBot,建立基于安卓的边缘 AI 生态雏形。框架上,谷歌把大模型做到移动端、边缘侧,由此开启了从云到端的终端交互革命。同期国内厂商在边缘AI 大模型上也加速布局,如阿里通义+天猫精灵智能音箱、百度文心+小度灵机、中科创达 Ruki,华为、vivo、小米等也加快了端侧大模型的研发投入,越来越多的巨头开始往终端去走。大模型从云到端的大趋势确立,终端大模型从

48、云到端的大趋势确立,终端 AI 成为下一个兵家必争之地。成为下一个兵家必争之地。AI 大模型浪潮是由软件先行定义一切基础,在催生算力硬件需求之后,迈向各类终端变革与应用创新的新阶段。智能手机作为天然流量池,成为大模型运行在终端的第一个重要市场。除了手机之外,AIoT 智能家居、XR 头显、智能汽车和机器人也是大模型进入终端的四个重要市场。细数终端大模型场景应用:短期看,音箱、耳机、手机是核心载体,落地相对较快;中期看 XR 和智能汽车,MR 愿景未来可期,智能汽车是大模型进入终端的另一个重要市场;远期看具身智能。(5)AIGC 有望带动单机软件价值量提升,有望带动单机软件价值量提升,AI 手机

49、布局正当时手机布局正当时 预计预计 2024 年全球智能手机出货量将增长年全球智能手机出货量将增长 4%。2022 年全球智能手机市场经历大幅下滑 12%后,2023年市场呈现初步的复苏迹象。根据 Canalys 的预测,预计 2024 年全球智能手机出货量将增长 4%,达11.7 亿部,预计 2027 年将达到 12.5 亿部,2023-2027 年复合增速为 2.6%。AIGC 带来新应用、功能的增加以及智能化水平的提升,有望带动单机软件价值量提升。带来新应用、功能的增加以及智能化水平的提升,有望带动单机软件价值量提升。2023 年 5 月11 日,谷歌在 I/O 开发者大会上称 Andr

50、oid14 系统的开发中引入了三项生成式 AI 特性,包括MagicCompose(魔法撰写)和 CinematicWallpapers(电影壁纸)和 GenerativeAIWallpapers(生成式AI 壁纸)。1)魔法撰写:在回复信息、写邮件等各类聊天场景中,AI 帮助修饰语言;2)电影壁纸:将照片转换为 3D 图像;3)生成式 AI 壁纸:用户输入 prompts,系统自动生成相应前所未有的壁纸。Android14 系统中引入 AIGC 将为新应用和功能的开发提供创新土壤,同时相关代码量也将增加,有望带动单机软件价值量提升。AI 手机布局正当时。手机布局正当时。布局大模型似乎成为了国

51、内各手机厂商的“必选项”,近期 OPPO、vivo、华为、小米、荣耀等均已公布自己的手机大模型,而业内首个推出 AI 大模型手机的 vivo 也收获了这个新技术加持下的“红利”在 X100 系列发售首日,据 vivo 官方公布的数据显示,截至 2023 年 11 月 21 日 15:00,vivoX100 系列全渠道销售额累计已突破 10 亿元,打破 vivo 历史所有新机销售纪录。(6)汽车驶向智能化时代,大模型提升自动驾驶泛化能力汽车驶向智能化时代,大模型提升自动驾驶泛化能力 1)智能汽车销量爆发式增长智能汽车销量爆发式增长,中国智能座舱市场空间稳增,中国智能座舱市场空间稳增,2023年渗

52、透率预计可达年渗透率预计可达66%2023 年国内智能汽车销量增速预计为年国内智能汽车销量增速预计为 68.5%,据中汽协及亿欧智库数据,2022 年中国新能源汽车以大比率增长,产销分别实现 705.8 万辆和 688.7 万辆,分别同增 96.9%和 93.4%;2022 年中国智能汽车销量达 412.4 万辆,同比增长 166.9%。预计 2023 年,国内新能源汽车和智能汽车销量将分别实现998.4 万辆和 613.7 万辆,其中智能汽车销量增速预计可达 68.5%。智能汽车销量将提振智能汽车软件需求,2025 年智能汽车软件市场规模预计将增至 373 亿元,2021 至 2025 年

53、CAGR 约为 9.59%。2022 年,中国智能座舱市场规模为 1127 亿元。预计 2026 年,中国智能座舱市场空间可达 2127 亿元,五年复合年增长率(CAGR)约为 17%。在软件定义汽车的背景下,智能座舱通过集成“一核、多屏、多系统”、语音识别、手势控制、液晶仪表、HUD、DMS 和 ADAS 集成等,为用户带来个性化的交互体验。智能座舱是汽车厂商在激烈的市场竞争中重要的差异化因素,也是汽车厂商后续获得的重要差异化点,以及持续获取用户数据、流量数据变现的方式。智能座舱场景下,整车厂与供应商的关系将更加多元化、开放,供应商需要根据客户的需求开发兼容的硬件和软件。同时,智能座舱软件还

54、涉及操作系统、中间件、UI 设计等多个方面。目前智能座舱发展主要受限于主机厂商对 SoC、Hypervisor 虚拟化、车载 OS、中间件、上层应用软件的软件开发能力不足;缺乏边缘车侧、云端、云侧协同的端到端融合解决能力,以及可承载整套成的云缺乏边缘车侧、云端、云侧协同的端到端融合解决能力,以及可承载整套成的云侧协同的架构和组件。侧协同的架构和组件。据 IHSMarkit 预计,2023 年中国智能座舱渗透率将达 66%,超全球智能座舱渗透率水平 55.2%;至2025 年,中国市场与全球市场情况差异将进一步扩大。智能座舱各关键部件来看,座舱域控制器/座舱芯片 SoC/HUD/液晶仪表盘/流媒

55、体后视镜/数字钥匙的渗透率 2023 年分别可达 8%/40%/20%/90%/54%/8%/33%。据毕马威分析估算,各关键部件渗透率2026 年分别将增至 34%/70%/55%/97%/68%/28%/63%。随着汽车互联程度的提高,软件更新通过 OTA 直接向汽车发送和安装软件更新;OTA 成为软件定义汽车的重要组成部分。2023-2026 年,OTA装配量有望大幅增长。据毕马威分析预估,OTA 技术渗透率2026 年预计将增至 94%。2)全球自动驾驶全球自动驾驶2023年年L2/L3渗透率预计可达渗透率预计可达30%/0.9%,2024年年L3有望大幅增长有望大幅增长 据 Coun

56、terpoint 分析,完全自动驾驶汽车(L4-L5)的未来看起来还相对遥远,因为自动驾驶比想象的更复杂。然而当前,通用汽车、福特和特斯拉等汽车制造商正在通过提供 L2+免提驾驶系统以吸引客户,减轻高速公路上的驾驶压力。丰田和本田等量产汽车制造商已在其最新车型中添加了 L2ADAS 作为标准功能。汽车制造商通过提供 ADAS 套件/套件作为标准或较低价格范围的选项,以提升更多车型的 L2 可用性。全球自动驾驶(ADAS)2023 年 L2/L3 渗透率预计 30%/0.9%,L2 渗透率预计未来每年呈稳定增长态势。据华经产业研究院预计,全球 ADAS 技术各级别 L0/L1/L2/L3/L4

57、渗透率 2030 年预计演化为12%/21%/57%/7%/3%。国内外进一步政策出台将有望推动 L3 自动驾驶渗透率大幅增长。3)国内自动驾驶认知决策国内自动驾驶认知决策AI大模型开始落地,助力实现端到端方案大模型开始落地,助力实现端到端方案 在自动驾驶认知决策层面,国内已有相关在自动驾驶认知决策层面,国内已有相关 AI 大模型落地。大模型落地。2023 年 4 月,毫末智行发布了业内首个自动驾驶生成式大模型 DriveGPT,中文名“雪湖 海若”。DriveGPT 通过引入驾驶数据建立 RLHF(人类反馈强化学习)技术,对自动驾驶认知决策模型进行持续优化,最终目标是实现端到端自动驾驶参数规

58、模达到 1200 亿,预训练阶段引入 4000 万公里量产车驾驶数据,RLHF 阶段引入 5 万段人工精选的困难场景接管 Clips。与 ChatGPT使用自然语言进行输入与输出不同,DriveGPT 输入是感知融合后的文本序列,输出是自动驾驶场景文本序列,即将自动驾驶场景 Token 化,形成“DriveLanguage”,最终完成自车的决策规控、障碍物预测以及决策逻辑链的输出等任务。10 月,毫末智行发布了 3 款第二代智能辅助驾驶产品,摆脱对高精地图的依赖,同时成本高昂的激光雷达也成为了非必须可选项,3 款产品分别为:HP170、HP370、HP570,市场价格分别为:3000元、500

59、0元、8000元,定价相较此前市场上万元级别的智能驾驶软硬件价格而言具备优势,有望加速高级别自动驾驶大规模商用落地。自 2023 年以来,大模型上车的速度明显加快,智能座舱方面,车载语音助手成为 AI 大模型落地的最重要途径。多模态大模型的应用可以通过提升车载助手多模态理解能力、感知能力等,重塑人车交互方式。AI 大模型大模型+座舱应用频繁落地。座舱应用频繁落地。2023 年 6 月,理想旗下语音助手“理想同学”加入了其自研的认知MindGPT,可以支持声纹识别、内容识别、AI 绘画、AI 计算等功能。10 月份,随着智己 LS6 上市,其自研的 GPT大模型也正式上线。而蔚来也已申请 NIO

60、GPT、NOMIGPT 等商标。此外,科大讯飞的星火大模型、百度的文心一言大模型、商汤的日日新大模型均已在智能座舱场景实现应用落地。(7)大模型为人形机器大模型为人形机器人注入大脑,打开通用机器人可实现性人注入大脑,打开通用机器人可实现性 人形机器人市场空间广阔,产业化指日可待。人形机器人市场空间广阔,产业化指日可待。从全球范围来看,人形机器人已有商业应用场景预期落地。根据 2023 年 5 月 GGII 发布的报告预测,预计到 2026年全球人形机器人在服务机器人中的渗透率有望达到 3.5%,市场规模超 20 亿美元,到 2030年全球市场规模有望突破 200亿美元。参考中国服务机器人市场约

61、占全球市场 25%的数值测算,2030 年中国人形机器人市场规模将达 50亿美元。特斯拉高调入局,掀起人形机器人产业热潮。特斯拉高调入局,掀起人形机器人产业热潮。2022 年 9 月 30 日,特斯拉 AIDay 上人形机器人“Optimus”(擎天柱)首次亮相,海内外市场为之振奋。2023 年 5 月特斯拉股东会上视频展示了迭代后的 Optimus,在电机扭矩和力度控制等方面更精确,预计量产后单价有望低于 20000美元。2023 年 9月,特斯拉机器人 X 官方账号发布视频,Optimus 已可以自主对物品分类,同时能够自动校准它的手臂和腿,仅通过视觉和关节位置编码器,即可定位其肢体位置。

62、12 月 13 日,马斯克在社交平台 X 展示了将于 12 月发布的 Optimus 第二代机器人(Gen2)步行速度提升 30%,平衡感和身体控制能力有所改善。根据特斯拉透露的未来方向,Optimus的应用场景未来可能会涉及工业生产,也就是由人形机器人全程接管汽车生产领域,实现真正的无人生产。大模型为人形机器人注入大脑,打开通用机器人可实现性。大模型为人形机器人注入大脑,打开通用机器人可实现性。能够认为通用性受限是掣肘人形机器人商业化落地的原因,过去人形机器人动作普遍源自提前创建的行为库,限制了其在更泛化应用场景上的推广。人形机器人需要具备更强大的智能化和自主决策能力,而大模型具有庞大的先验

63、知识库与强大的通识理解能力,可以满足人形机器人对于通用性的场景和技能的要求,实现复杂的运动控制、多模态感知和决策、自主学习和优化等。当人形机器人的使用者从工程师变成了一般用户,使用门槛降低将助力产业走向更大规模的爆发。国内多家科技企业与跨界龙头纷纷布局。国内多家科技企业与跨界龙头纷纷布局。当前人形机器人的主要布局者多为科技公司,也有多家跨界公司入局。小米 Cyberone 重建真实世界、实现运动姿态平衡、感知人类情绪;优必选 WalkerX主要应用于科技展馆、影视综艺、商演活动、政企展厅;傅利叶 GR-1 在工业、康复、居家、科研等多应用场景潜能巨大;达闼 CloudGinger2.0 应用场

64、景主要包括卖场促销、直播卖货、教育科研、清洁打扫、康养陪护、迎宾导览;智元机器人远征 A1 预计先应用在工业制造领域,随后逐步走向 toC 应用。3、应用层:、应用层:AIGC+教育、金融、办公、法律、医疗加速渗透教育、金融、办公、法律、医疗加速渗透 当前,人工智能在我国各行业已经得到广泛应用。当前,人工智能在我国各行业已经得到广泛应用。根据 IDC 数据,2022 年,人工智能在我国互联网、金融、政府、电信、制造等行业的渗透率分别为 83%、62%、52%、51%、45%。其中教育、金融、办公、法律、医疗行业渗透加速。随着国产大模型的逐步成熟,我国大模型产品面向我国庞大的互联网 C端用户群和

65、丰富的行业应用场景,将与产品和应用场景深度融合,赋能我国数字经济的发展。参考我国数字经济的巨大体量,我国 AIGC 产业未来发展前景广阔。(1)AIGC+教育:人工智能落地的最优场景之一教育:人工智能落地的最优场景之一 ChatGPT 带来的大模型时代,将深入影响学校生态、教育教学改革、教学评价、教师发展等各个层面。随着大模型发展和落地,可以实现“因材施教”、“个性化学习”等教育最为核心的需求,从而给教育行业带来“质变”。人工智能技术在教育领域的应用场景广阔,可大致分为四个层面:人工智能技术在教育领域的应用场景广阔,可大致分为四个层面:1)知识内容检索。AI 可以帮助学生快速检索相关知识内容,

66、满足对知识点查询的需求。这一应用场景知识密度要求较高,但对学生思维引导性较弱;2)语言学习。AI 可以评估和纠正学生的口语、写作等语言表达能力。这一应用在通用智能达到一定阈值后即可实现,知识密度要求不高,但对学生思维起到部分引导作用。3)内容生成。AI 可以根据教材和课程设置自动生成相关学习内容,如生成习题、案例分析等。这一应用知识密度需求不高,但对思维引导性要求增加。4)灵感索引。灵感索引是“因材施教”的关键,也是传统教育中老师较难被替代的环节,例如,在学生若干结题步骤中精准定位出错点,判断思维误区,进行正确引导,目前国内外 AI+教育产品均在探索中,尚无成熟案例。教育投入一直是公共财政第一

67、大支出。教育投入一直是公共财政第一大支出。2018 年年2022 年,国家财政性教育经费累计投入年,国家财政性教育经费累计投入 21.4 万亿元,万亿元,年均增长年均增长 7%,占国内生产总值的比例连续,占国内生产总值的比例连续 11 年保持在年保持在 4%以上。以上。在线教育市场规模稳定增长,未来大有可为。在线教育市场规模稳定增长,未来大有可为。根据艾瑞咨询数据,2025 年我国在线教育市场规模将达到 4905 亿元,年复合增长率 17.5%。这主要受益于以下几个方面的因素:1)国家对于教育事业的重视和支持,不断增加教育经费投入,推动教育信息化和现代化的发展,为在线教育提供了政策红利和基础条

68、件。2)互联网技术的不断进步和创新,提升了在线教育的技术水平和服务质量,为在线教育提供了 技术驱动和效率提升。3)用户对于在线教育的接受度和付费意愿的不断提升,以及对于个性化、多样化、国际化的在线教育需求的不断增长,为在线教育提供了市场需求和消费动力。4)在线教育机构的不断创新和优化,以及与其他行业的跨界合作和融合,为在线教育提供了产品多元化和竞争优势。人工智能在教育领域的应用场景包括教师的辅助教学和学生的自主学习。人工智能在教育领域的应用场景包括教师的辅助教学和学生的自主学习。在学习过程中利用人工智能技术构建学生数据画像,通过 AI 算法对数据持续分析,从老师的角度出发,收集学生反馈来提升教

69、学质量和完善教学细节,让老师的教学更有针对性;从学生的角度出发,在多个维度分析学生学习能力、学习偏好、自身学科水平等,更全面的对学生的综合能力进行评估,描绘学生知识点的薄弱之处,制定最优学习路径,有针对性的提供个性化解决方案帮助改进学习模式,实现“因材施教”。人工智能在教育领域的发展趋势和未来展望充满了无限的可能性,未来人工智能在教育领域的发展趋势和未来展望充满了无限的可能性,未来 AI+教育的发展趋势:教育的发展趋势:1)智能教育平台的普及:随着人工智能技术的成熟和成本的降低,智能教育平台将成为学校和教育机构的标配,为学生提供更便捷、更高效的学习环境。2)教育机器人的应用:教育机器人将成为学

70、生学习的伙伴和助手,通过与学生互动和合作,帮助他们培养创造力、解决问题的能力和团队合作精神。3)跨学科融合的教育模式:人工智能将促进不同学科之间的融合和交叉,培养学生的综合能力和跨学科思维能力。4)教育的全球化:人工智能将打破地域限制,实现教育的全球化,让更多的学生受益于优质教育资源和技术。(2)AIGC+金融:国内金融大模型抢滩布局,场景应用加速渗透金融:国内金融大模型抢滩布局,场景应用加速渗透 2023 年 3 月 30 日,彭博发布其大语言模型 BloombergGPT,是 LLM 在垂直金融场景的落地加速的象征。BloombergGPT 聚焦于金融场景,将其多年积累的金融领域报告术语等

71、对 LLM 进行训练,相较普适性类 ChatGPT 产品,其对金融术语的理解更为高效与准确。BloombergGPT 采用 500 亿参数与 7000 亿数据集规模对大模型进行训练,远小于 GPT3 的 1750亿参数与 45TB 数据量。其数据集主要包含两个部分,一个数据量占比 49%的通用型文本数据集,主要包括ThePile、C4、Wikipedia 等通用常识类数据集,另一个数据量占比 51%的金融预料数据集,主要包含括新闻、研究报告、公司财报、网络爬取的金融文件以及提取到的社交媒体消息等内容。根据彭博发布的 论文,BloombergGPT 在通用领域能力与 GPT3 几乎持平,但在金融

72、垂直领域文本撰写和问答能力更为突出。BloombergGPTLLM 预训练的成功说明 LLM 在垂直领域应用的可用性和训练成本可控的可行性。国内,国内,2023 年年 9 月月 18 日,首个金融行业大模型标准发布。日,首个金融行业大模型标准发布。信通院牵头,联合腾讯云、奇富科技、科大讯飞等四十多家企业共同编制的面向行业的大规模预训练模型技术和应用评估方法第 1 部分:金融大模型正式发布。该标准主要涵盖了金融大模型的关键能力要求,包括场景适配度、能力支持度和应用成熟度三大方面,覆盖了投资研究、投资顾问、风险管理、市场营销、客户服务等多个金融应用场景,并详细规定了金融大模型在数据合规性、可追溯性

73、、私有化部署、风险控制等方面的要求。为大模型在金融领域的应用提供了一定的指导,在金融行业的合规可信方面提供保障,有望加速行业应用落地。国内各厂商纷纷抢滩布局金融大模型,应用加速落地:国内各厂商纷纷抢滩布局金融大模型,应用加速落地:(3)AIGC+办公:办公:ARPU 值与付费率双升值与付费率双升 海外,微软于 2023 年 3 月 16 日发布会上发布重磅产品 Microsoft365Copilot,其集成 GPT-4 的功能,以聊天机器人的模式出现在产品的右侧。用户通过向其发号指令,便可自动生成文字、表格、演示文稿等内容。大模型的赋能下,简化了用户的学习路径,通过自然语言就可与机器进行交互并

74、发号指令,将操作流程大大简化,使得工作流程与效率得到了较大的提升。7 月 18 日,微软公布其 Copliot 价格为 30美元/人/月,此举将大幅提升其产品单价。在近期微软发布会上,其公布 Copliot 产品将于今年 11 月 1日正式面向全部企业用户推出,并将嵌套进全新的 windows11 系统。伴随着微软 Copilot 的全面落地应用,AI 对业绩、用户数据、产品优化的贡献能力将不断显现,24 年将开始逐步反应在财报上。国内,2023 年 4 月 18 日,金山办公宣布推出 WPSAI,将应用于新一代在线内容协作轻文档,能力包括:从 0 到 1 生成内容、多轮对话以修改内容、以及处

75、理(编辑/改写/扩充)已有文档等功能,并将陆续嵌入全线产品。7 月 6 日,WPS 面向大众招募智能办公体验官。AIGC 对办公产品的赋能将提升用户的使用意愿与付费意愿。AI 功能主要在云端进行推理任务,用户只能通过订阅付费方式进行获取,将进一步提升公司付费率。目前公司付费率依然较低,相较于微软 18左右的付费率仍有较大空间。此外,随着 AI 功能的上线,未来产品单价将进行提升,ARPU 值将得到提升。此外,对比竞争对手微软来说,金山的价格优势有望进一步放大。(4)AIGC+法律:未来预计可替代法律:未来预计可替代 44%法律工作法律工作 生成式 AI 或可替代 44%法律工作。根据高盛(Go

76、ldmanSachs)研究报告ThePotentiallyLargeEffectsofArtificialIntelligenceonEconomicGrowth显示,以 ChatGPT 为代表的生成式 AI 产品,将对美国和欧洲三分之二工作岗位造成影响(大约 3 亿个工作岗位)。其中,行政和法律是受影响最大的领域,高盛表示,46%的行政工作和 44%的法律工作可以被人工智能替代。ChatGPT 为法律行业多种应用场景赋能。为法律行业多种应用场景赋能。GPT可以提高法律服务的效率和质量,传统的法律服务需要律师大量的时间和精力来处理和解决案件,但是 GPT 可以通过快速准确地分析和处理大量的法律

77、数据,从而减少重复的、机械式的工作。新一代 GPT 具备复杂逻辑推理能力,且能够很好地处理非结构化信息,而法律行业大量的信息/数据是以非结构化的形式存在的,现阶段的 GPT已经可以初步胜任一个律师助理的工作。结合法律科技领域过往的经验,从服务的客户/对象来看,AI+法律领域可以大致分为以下几类:1)2B:针对企业提供法律科技服务。一般是针对企业中高频、重复的法律需求提供解决方案(例如,针对房产中介平台提供的合同智能处理服务);2)2L:针对律所/律师等法律专业从业者的法律科技服务,2L也可以算作是 2B 中的一个特殊分类。最近半年在海外拿到高额融资的头部 AI+法律创业公司,多集中于与 LLM

78、 结合之后的“AI 法律助理”这个领域;3)2C:针对普通用户提供的法律科技服务平台,为用户提供法律问题的自动解答、相关律师推荐等。由于普通用户的使用频次低,决策流程长等问题,2C平台扮演的更多是为律所/律师引流的角色,产品的价值和天花板不高,很难形成独立的产品,更多是依附在 2B 平台上的一个附加服务许多 2B 的产品会搭建类似平台帮助其客户做引流。(5)AIGC+医疗:助力智慧医疗转型升级医疗:助力智慧医疗转型升级 随着 ChatGPT引发的 AIGC 技术革新,在 NLP、CV方向上的 AIGC 应用将大大提升,“AIGC+医疗”将会在诸如院内临床决策系统、手术机器人、智慧病案系统、医疗

79、影像、药企新药研发与基因检测等多应用场景得到广泛推广。弗若斯特沙利文发布医疗智能行业白皮书显示,中国医疗产业正由 1.0 医疗信息化发展为 3.0医疗智能化,大数据、云计算、AI 技术能力、医学知识与场景经验、场景与算法高频迭代是五大核心要素。白皮书预计,2025 至 2030 年中国医疗智能市场规模复合年增长率 37.4%,市场规模将破 1.1 万亿元。AI核心医疗产业链可以分为核心医疗产业链可以分为 AI 基础层,基础层,AI 医疗技术层与应用层:医疗技术层与应用层:1)基础层,除数据服务外,芯片与通信等基础核心领域已形成牢固的技术壁垒,市场呈寡头局面;2)技术层,算法、框架以及通用技术则

80、需要长期的投入与研发来攻克,目前各大科技企业与互联网巨头企业基本已完成布局,中小企业生存空间较少;3)应用层,应用层可触达全医疗服务场景,如院内临床决策系统、手术机器人、智慧病案系统、医疗影像、药企新药研发与基因检测。未来随着技术不断迭代创新及政策支持加码,未来随着技术不断迭代创新及政策支持加码,AI+医疗有望迎来高速发展期。医疗有望迎来高速发展期。中国的人工智能医疗市场具有广阔的发展前景和潜力,随着人工智能技术的不断创新和进步,未来会有更多产业政策、技术变革动医疗行业的变革和创新。同时,政府和行业协会的规范引导,将进一步促进人工智能在医疗领域中的应用,建议关注覆盖医疗场景的广度与对医疗垂直及

81、细分领域研究的上市公司。六六、相关公司、相关公司 1、浪潮信息:算力供给龙头企业引领浪潮信息:算力供给龙头企业引领 AI 算力新浪潮算力新浪潮 浪潮信息是国内领先的服务器制造企业,浪潮信息是国内领先的服务器制造企业,专注于为客户提供先进的云计算、大数据、边缘计算等计算产品和解决方案。算力方面,公司服务器产品体系丰富,竞争优势明显。公司通过场景优化设计,形成了一系列丰富的产品线,涵盖了计算型、存储型、多节点、关键应用、整机柜等各类服务器,支持全场景高效计算。公司收入稳定增长,业务成长性良好。公司收入稳定增长,业务成长性良好。从整体收入来看,公司营业收入从 2018 年 469.41 亿元增长到2

82、022 年 695.25 亿元,CAGR 约为 10.32%。公司的收入主要来自于服务器及部件,近年来公司的服务器及部件收入占比均高于 95%,2022 年公司服务器及部件营收占比约为 99.17%。2022 年,公司人工智能服务器市占率连续年,公司人工智能服务器市占率连续 3 年全球第一,连续年全球第一,连续 6 年市占率中国第一;年市占率中国第一;2023 年年 Q3 浪浪潮信息居全球服务器份额第二。潮信息居全球服务器份额第二。公司牵头参与服务器全部国标,是唯一一家同时加入全球三大开放计算组织的服务器供应商。公司是百度、阿里、腾讯等大型企业最主要的 AI 服务器供应商,与科大讯飞保持在系统

83、与应用的深入合作,帮助 AI 客户在语音、图像、视频、搜索、网络等方面取得数量级的应用 性能提升。公司打造最广泛、多元的算力平台,推出全新一代 G7 服务器,是目前业界算力支持最广泛的平台。公司在 AI 服务器领域具有先发优势,全栈布局液冷。多年来围绕智慧计算、数据中心液冷技术持续加大研发投入,目前全系列服务器均支持冷板式液冷,实现全算力业务场景覆盖。浪潮信息服务器性能突出。浪潮信息服务器性能突出。公司 AI 服务器 2022 年在全球权威 AI 性能评测竞赛 MLPerf 中获得 49 个冠军,以全面领先的 AI 训练、推理性能表现,为 AI 研发和应用提供强劲动力,其 AI 服务器产品已经

84、应用在全球领先的互联网巨头企业以及 AI+Science、AI+Graphics、AIGC 等领域的领先科技公司,成为全球 AI 服务器的最大供应商。浪潮信息英信服务器 NF5688M6 是浪潮信息为超大规模数据中心研发的同时拥有高性能,高兼容,强扩展的新一代 NVLinkAI 服务器,率先在 6U 空间内支持 2 颗 Intel 最新的 IceLakeCPU 和 8 颗 NVIDIA最新的 NVSwitch 全互联 500WAmpere 架构 GPU,采用业界先进的 NVIDIANVLink 互联架构,数据中心液冷整机柜服务器 ORS3000S 基于全新一代英特尔至强第三代可扩展处理器打造,

85、单CPU最高拥有 40 个内核及 80线程,最大支持 TDP270WCPU、最高睿频 3.6GHz、3 组 11.2GT/sUPI互连链路,使服务器拥有更高处理性能同时兼容标准机架式服务器和整机柜服务器,整合网络、计算、存储等功能,满足不同用户的多种需求。2、中科曙光:持续发力高端服务器市场中科曙光:持续发力高端服务器市场 中科曙光是国内领先的高端服务器生产商。中科曙光是国内领先的高端服务器生产商。公司高端服务器产品全栈自研,拥有大规模部署实践;不断开拓算力服务业务,通过全国一体化算力服务平台加速海量复杂行业应用创新与落地,为国内多个大模型提供算力支持。公司持续提升技术创新能力和研发水平,在部

86、件性能管理、产品稳定性、高速互联等方面持续提高产品性能,全面升级服务器的可扩展能力、可管理能力,增强产品的核心竞争优势,经营业绩稳步提升。2022 年,公司利润端持续高增。公司营业收入 130.08亿元,同比增长 15.44%,归母净利润 15.44 亿元,同比增长 31.27%。各业务营收占比基本保持稳定,盈利质量持续提升。公司高端计算机产品包括机架式服务器、高密度服务器、刀片服务器、超融合一体机产品等,能面向多种应用场景,兼顾性能、能效、应用生态,具有领先的计算密度和节能性。公司的高端服务器产品也涵盖浸没液冷、冷板液冷等产品形态,具有节能高效、安全稳定、高度集成等特点。智能计算天阔服务器X

87、785-G30:采用 Intel 最新一代的 XeonScalable 系列处理器,可支持更多 CPU 核心,最高支持DDR42933 内存,极大地提高了系统性能,处理器集成 6 通道内存控制器,支持最高 2933MHz 的DDR4 内存。单颗 CPU 最高可提供 28 核心计算能力,采用全新的 UPICPU 总线互联技术,总线频率高达 10.4GT/s,计算能力大幅提升。曙光超融合整体解决方案采用微服务架构,将服务器资源统一整合。基于高效可靠的服务器实现一体化的系统交付。3、海光信息:国产海光信息:国产 x86CPU 龙头,龙头,DCU 打开第二增长曲线打开第二增长曲线 海光信息是基于海光信

88、息是基于 AMDX86 技技术授权自主研发,设计和销售术授权自主研发,设计和销售 CPU 和和 DCU 的芯片设计厂商。的芯片设计厂商。公司于2014 年成立,2016年海光信息和 AMD 共同成立两家子公司海光集成和海光微电子,海光获得AMD 技术授权,并约定专利由子公司海光微电子持有,由海光微电子初步设计后向子公司海光集成销售。公司对已授权技术的消化、吸收、改进和提高,在此基础上,自主研发并推出了海光系列 CPU 产品和深算系列 DCU 产品。公司的主营产品包括海光通用处理器(公司的主营产品包括海光通用处理器(CPU)和海光协处理器()和海光协处理器(DCU)系列。)系列。公司 CPU 产

89、品主要分为7000、5000 和 3000 系列,主要应用于服务器和工作站。7000 系列主要应用于高端服务器,主要面向数据中心、云计算等复杂应用领域。5000 系列主要面向政务、企业和教育领域的信息化建设中的中低端服务器需求。3000 系列主要应用于工作站和边缘计算服务器,面向入门级计算领域。海光海光 DCU属于属于 GPGPU 的一种,的一种,主要为 8000 系列,主要部署在服务器集群或数据中心。CPU 更新至第四代,更新至第四代,DCU 更新至第二代。更新至第二代。CPU方面,海光 CPU已经有海光一号、海光二号、海光三号实现商业化,海光四号于 2023 年 10 月底发布,海光五号处

90、于研发阶段。公司目前在售的海光 CPU产品主要为海光三号产品。DCU 方面,海光 DCU 系列产品深算一号和深算二号已经实现商业化应用,深算三号处于研发阶段。4、科大讯飞:科大讯飞:人工智能国家队,产品体系横跨五大领域人工智能国家队,产品体系横跨五大领域 深耕深耕 AI 领域二十余载,人工智能国家队。领域二十余载,人工智能国家队。公司自成立以来,一直从事智能语音、自然语言理解、计算机视觉等核心技术研究,积极推动人工智能产品和行业应用落地,是国内 AI 技术最为领先的企业之一,曾多次在语音识别、语音合成、机器翻译、图文识别等各项国际评测中取得佳绩。仅于 2022 年,公司就累计获得包含常识阅读理

91、解挑战赛 OpenBookQA、QASC、ReClor 等在内的 13 项认知智能国际竞赛冠军。同时公司是中文语音交互技术标准工作组组长单位,具备牵头制定中文语音技术标准能力。以以“平台平台+赛道赛道”发展模式为基,发展模式为基,AI 赋能千行百业。赋能千行百业。公司在“平台+赛道”模式下,打造了包含教育、智慧城市、智慧医疗业务等在内,面向多个垂直行业的 AI 应用生态体系,持续赋能千行百业的 AI 数字化转型。讯飞开放平台:以语音交互为核心,技术输出的核心渠道。讯飞开放平台:以语音交互为核心,技术输出的核心渠道。讯飞开放平台以“云+端”方式提供智能语音能力、计算机视觉能力、自然语言理解能力、

92、人机交互能力等相关的技术和垂直场景解决方案。智智慧教育:围绕因材施教理念,打造慧教育:围绕因材施教理念,打造 GBC 三端联动的发展模式。三端联动的发展模式。公司教育业务覆盖 G/B/C 三端,打造了以因材施教为底座、智慧课堂为中心,同时配备 AI 学习机、个性化学习手册等硬件产品的多元生态体系,目前教育业务已成长为公司的核心业务。智慧城市:标杆案例涌现,静待行业破茧。智慧城市:标杆案例涌现,静待行业破茧。公司通过人工智能+专家智慧+多元多维数据的深度融合,实现了从城市治理到政府数字化转型的全面升级,近年来成果颇丰。以公司参与打造的皖事通为例,在年度政务 APP 排名中位列第四名,已服务了超

93、7000 万百姓,仅去年一年访问量达到了 316 亿次,未来有望成为公司探索新区域的标杆示范。消费者业务:围消费者业务:围绕绕 AI+办公、办公、AI+生活两大场景,深入挖掘用户需求。生活两大场景,深入挖掘用户需求。公司业务包含智能办公本、录音笔、翻译机等硬件产品和讯飞输入法、讯飞听见 APP、虚拟人等软件产品。近年来通过软硬件耦合协同发展方式,深入挖掘用户需求,相关业务业绩提速明显。智慧医疗:以智慧医疗:以 GBC 模式为底座,蓄势待发的第二成长曲线。模式为底座,蓄势待发的第二成长曲线。智慧医疗是继教育后,公司以 GBC 发展模式拓展的新赛道。目前产品服务体系已覆盖了智慧卫生(G 端)、智慧

94、医院(B 端)及智慧硬件(C 端)的完整商业闭环。公司旗舰产品智医助理在基层领域优势明显,是全国唯一在基层大规模落地的智能辅助应用。目前智慧医疗处于发展早期,整体规模较小。星火模型持续迭代,性能位居行业榜首。星火模型持续迭代,性能位居行业榜首。星火是由公司推出的新一代认知智能大模型,拥有跨领域的知识和语言理解能力,能够基于自然对话方式理解与执行任务,提供语言理解、知识问答、逻辑推理、数学题解答、代码理解编写、跨模态等多种能力。历经二次迭代后,目前星火已发展为国内最为先进的大模型产品之一。根据新华社研究院发布的人工智能大模型体验报告 2.0,讯飞星火以总分 1013 分位列国产主流大模型测评榜首

95、位,并在麻省理工科技评论中国发布的大模型评测报告显示,荣获“最聪明”的国产大模型称号。公司已于公司已于 23 年年 10 月月 24 日发布第三代星火认知大模型,中文能力已全面超日发布第三代星火认知大模型,中文能力已全面超越越 ChatGPT(GPT3.5),英文能力已结果相当。),英文能力已结果相当。5、国内其他国内其他 AIGC 模型企业:模型企业:七七、未来未来发展趋势发展趋势 1、中短期基于中短期基于 Transformer 算法和结构优化仍是主流,长期可能被替代算法和结构优化仍是主流,长期可能被替代 学术界将通过扩大模型参数量、调整模型结构、局部算法优化等方式,进一步探索大模型的能力

96、天花板,触碰 AGI 可能性;以各大企业为代表的产业侧,一方面从商业化落地角度追求更小模型参数下的高模型能力维持,以及解决大模型出现的知识幻觉问题,一方面也在积极研发探索新模型架构可能性,呈现“对外模型名称为厂商能力代号,但内含技术架构随时可能改变”的发展特征。产业与科研两侧的需求产业与科研两侧的需求都已经暴露标准都已经暴露标准 Transformer 架构的巨大瓶颈,即“不可能三角”。各大机构与开发团队对架构的巨大瓶颈,即“不可能三角”。各大机构与开发团队对Transformer 架构的成功改进在快速推进,未来极有可能会出现具备推广价值的新架构的成功改进在快速推进,未来极有可能会出现具备推广

97、价值的新 Transformer 架架构。构。2、AI 成为基础设施,部分基础工作被替代,社会人力结构和分配方式重成为基础设施,部分基础工作被替代,社会人力结构和分配方式重塑塑 技术的跃迁、生产效率的提升并不会自然带来社会整体福利水平的提升,相反往往以牺牲部分人的利益为前提,进而引发社会结构、分配方式的重塑。AIGC交互界面的用户友好性、大模型开源及 API 价格的降低、插件服务带来的应用生态繁荣等,都使得 AI 技术或将成为像水、电、网络一样的基础设施,渗透并改变千行万业。然而,大模型具有认知、分析、推理能力,不同于自动化浪潮下对蓝领的冲击,AIGC 时代受 AI 影响最大的可能是初级专业人

98、士和技术人员,即部分白领。据麦肯锡数据预测,到2045 年左右,有 50%的工作将被 AI 替代,比此前的估计加速了 10年。与此同时,具有创造力、深度思考等高阶智力的人才,将享受到 AIGC 带来的效率优势,成为 AI 的驾驭者,相应的工作需求也会增加。智力要素重要性的提升、附加值的提高,都将推动社会资源和财富向顶尖人才和组织聚集,但社会智力要素重要性的提升、附加值的提高,都将推动社会资源和财富向顶尖人才和组织聚集,但社会是一个整体,生产效率的提升并不代表着购买力的提升,被替代的普通职工才是购买力的最大来源,为是一个整体,生产效率的提升并不代表着购买力的提升,被替代的普通职工才是购买力的最大

99、来源,为了维持供需平衡,分配制度需要重塑。了维持供需平衡,分配制度需要重塑。如美国总统竞选人杨安泽提出向大企业征收增值税,并向公民发放补贴,以及 OpenAI 创始人 SamAltman 提出的世界币均等分配等,都通过反思并调整现有的分配方式,以驱动社会向更美好的方向演进。3、鼓励鼓励 AIGC 研究,放宽内容容错率,强调研究,放宽内容容错率,强调 AI 生成标识,推动公开数据生成标识,推动公开数据建设建设 自自 AIGC 逐渐应用以来,引发了知识幻觉、数据安全、个人隐私、道德伦理等诸多问题和讨论,新生逐渐应用以来,引发了知识幻觉、数据安全、个人隐私、道德伦理等诸多问题和讨论,新生的行业亟需监

100、管措施的跟进和健康发展引导。的行业亟需监管措施的跟进和健康发展引导。2023 年 7 月,网信办等七个部门正式发布了生成式人工智能服务管理暂行办法(以下简称办法),距离征求意见稿发布仅隔三个月,且监管要求更为宽松,反复强调了鼓励发展的态度。具体来看,办法主要规范公共服务环节,不包含有关专业机构的研发和应用环节,鼓励企业在自研自用范围加强技术攻关;其次,办法不强求生成内容的真实、准确性,放宽了容错率,对前期探索的企业带来一定利好,但同时也提高了用户辨别的时间和成本。同时,办法要求提供者对 AI 生成内容进行显著标识,有望从根本上杜绝 AI 生成内容难以辨别的问题,但也可能影响用户对内容的价值判断,对企业带来负面影响。最后,国家以立法的形式打造数据和算力协同共享的平台,最大化促进资源利用,有利于为中小型企业减负,降低研发成本。办法发布后,即引发了苹果应用商店对 ChatGPT、讯飞星火等 AIGC相关 App 的下架整改行动,行业整顿步伐进一步加速。

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(2024AIGC行业支持政策、商业模式、产业链及相关公司分析报告(41页).pdf)为本站 (2200) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部