上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

半导体行业专题研究:ChatGPT推动AI芯应用算力提升终端多点开花-230323(17页).pdf

编号:119622 PDF 17页 1.28MB 下载积分:VIP专享
下载报告请您先登录!

半导体行业专题研究:ChatGPT推动AI芯应用算力提升终端多点开花-230323(17页).pdf

1、 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 1 半导体半导体 证券证券研究报告研究报告 2023 年年 03 月月 23 日日 投资投资评级评级 行业行业评级评级 强于大市(维持评级)上次评级上次评级 强于大市 作者作者 潘暕潘暕 分析师 SAC 执业证书编号:S05 程如莹程如莹 分析师 SAC 执业证书编号:S02 资料来源:聚源数据 相关报告相关报告 1 半导体-行业研究周报:2 月国产设备招标同比+58.00%,重点关注ChatGPT及 Chiplet 领域机遇 2023-03-20 2 半导体-行业

2、专题研究:Chiplet:设计引领、封装赋能,助推产业链价值重构和国产芯破局 2023-03-15 3 半导体-行业研究周报:荷兰对光刻机出口进一步限制,国产化亟待加速 2023-03-14 行业走势图行业走势图 ChatGPT 推动推动 AI 芯应用,算力提升终端多点开花芯应用,算力提升终端多点开花 ChatGPT 有望带动数据快速增长有望带动数据快速增长,AI 运算贯穿云运算贯穿云-边边-端端。根据 IDC 预计,全球数据总量预期 2026 年将超过 221,000 exabyte,2021-2026 年年复合增长率达到 21.2%,其中非结构化数据占每年创建数据超过 90%;透过云、边、

3、终端架构,以数据为中心将算力资源前置,在更靠近数据源的地方为用户提供低时延服务。云端芯片:云端芯片:AI 模型训练核心,计算参数指数级增长重点受益。模型训练核心,计算参数指数级增长重点受益。人工智能的模型自 2012 年 AlexNet 问世以来,模型的深度和广度一直在逐级扩升;大规模预训练模型成了一个新的技术发展趋势。根据 TrendForce 数据,截至2022 年统计 AI 服务器年出货量占整体服务器比重近 1%,随着大型云端业者开始大量投入 AI 相关的设备建设,AI 服务器 20222026 年复合成长率有望达到 10.8%。边端芯片:云端与终端的中继站,满足边端芯片:云端与终端的中

4、继站,满足 AI 轻量化部署需求轻量化部署需求。根据 IDC 预测,2025 年 64%的数据将在传统数据中心之外创建,意味着更智能的处理将在设备上完成,边缘服务器具有体积较小、环境适应性更优、支持多种安装方式、快速前维护和统一管理接口等技术特点。全球边缘 AI 处理器市场规模近 30 亿美元,快速响应需求增加有望带动市场规模快速增长。终端芯片:终端芯片:AIGC 应用多点开花,终应用多点开花,终端端 AI SoC 迎来升级变革迎来升级变革。AIGC 生成的内容种类越来越丰富,而且内容质量也在显着提升,随着 AIGC 模型通用化水平和工业化能力提升,有望降低内容生产和交互的门槛和成本。SoC

5、涵盖声音、影像、AI 处理,为智能化场景提供完整解决方案,随着终端朝向 AI应用发展,SoC 成为为智能终端的算力主控。存储芯片:大数据同步算力提升,存储芯片:大数据同步算力提升,AI 需求推动市场增长需求推动市场增长。DRAM 方面 AI 运算需足够的内存带宽,智能化有望带动内存需求提升;NAND 方面发展垂直方向堆栈 3D NAND 层数,新技术注入成长动力。建议关注:建议关注:云端云端 AI 相关企业:相关企业:寒武纪、海光信息(天风计算机覆盖)、龙芯中科、紫光国微、复旦微电、安路科技等。边边/终端终端 AI 相关企业:相关企业:瑞芯微、晶晨股份、恒玄科技、全志科技、乐鑫科技、富瀚微、中

6、科蓝讯、炬芯科技、兆易创新、中颖电子、芯海科技等。存储相关企业:存储相关企业:江波龙(天风计算机联合覆盖)、澜起科技、聚辰股份、北京君正、普冉股份、东芯股份、佰维存储等。AI 应用端相关企业:应用端相关企业:工业富联、大华股份、海康威视等。风险风险提示提示:下游需求不如预期、库存去化不如预期、研发与技术升级不如预期、宏观环境变动带来的风险 -32%-27%-22%-17%-12%-7%-2%3%-072022-11半导体沪深300 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 2 内容目录内容目录 1.ChatGPT 有望带动数据快速

7、增长,有望带动数据快速增长,AI 运算贯穿云运算贯穿云-边边-端端.4 1.1.云端芯片:大模型训练投入提升,算力指数级增长.6 1.2.边端芯片:云端与终端的中继站,满足 AI 轻量化部署需求.9 1.3.终端芯片:AIGC 应用多点开花,终端 AI SoC 迎来升级变革.11 1.4.存储芯片:大数据同步算力提升,AI 需求推动市场增长.14 2.建议关注建议关注.15 3.相关风险相关风险.16 图表目录图表目录 图 1:全球数据总量预期(单位:Exabytes).4 图 2:云-边-终端架构(以数据为中心就近部署算力).4 图 3:高通预计运算需求下沉,有望带动公司潜在市场空间增加 7

8、 倍.5 图 4:全球 AI 芯片市场规模(亿美元).5 图 5:中国 AI 芯片市场规模(亿人民币).5 图 6:近十年主流模型计算量与参数量.6 图 7:NLP 模型参数呈指数级增长.6 图 8:技嘉科技 G190-G30 高效能服务器.7 图 9:AI 模型训练与推理示意图.9 图 10:边缘 AI 应用流程示意图.10 图 11:全球边缘 AI 处理器市场规模(亿美元).10 图 12:浪潮边缘服务器部署架构(以智能质检解决方案为例).11 图 13:AIGC 基础模型和应用发展预测.12 图 14:2019-2025 年全球物联网设备连接量(十亿台).12 图 15:终端人工智能应用

9、.12 图 16:联发科 Genio 700.13 图 17:各应用突破 100 万用户花费的时间.13 图 18:AI 应用中常见的内存类型.14 图 19:NAND Flash 技术路径与各厂商进展.14 图 20:全球存储芯片行业市场规模(亿美金)与同比增速.15 图 21:2021 年存储芯片产品结构.15 图 22:联发科天玑 9200 处理器.15 图 23:AMD 发布 EPYC 9004 处理器.15 表 1:CPU GPU ASIC FPGA 性能与应用.6 表 2:云、边、终端算力与应用场景(1 TOPS 代表每秒处理一万亿次人工智能基本运算).6 表 3:浪潮服务器产品配

10、置.7 nNoP2YcVaYdXvZcVyX6MdN8OsQoOoMnOjMmMpMfQpNtPbRqQxOwMmNuMNZsPnN 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 3 表 4:云端 AI 芯片公司与产品参数(不完全统计).8 表 5:边端 AI 芯片公司与产品参数(不完全统计).11 表 6:重点关注公司(Wind 一致预期,数据截至 2023 年 3 月 23 日).16 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 4 1.ChatGPT 有望带动数据快速增长有望带动数据快速增长,AI 运算贯穿云运

11、算贯穿云-边边-端端 全球全球数据数据总量总量 2021-2026 年年 CAGR达到达到 21.2%,其中以非结构化数据为主,其中以非结构化数据为主。根据IDC预计,全球数据总量预期2026年将超过221,000 exabyte,2021-2026年年复合增长率达到21.2%。数据包括结构化和非结构化数据,但非结构化数据占每年创建数据超过 90%。非结构化数据包括视频、照片和图像、语音以及文档等,应用场景包含流媒体、游戏、物联网等应用,其中娱乐和非娱乐图像数据生成占非结构化数据超过 56%以上;而处理这种非结构化数据需要更强的计算基础设施。图图 1:全球数据总量预期(单位:全球数据总量预期(

12、单位:Exabytes)资料来源:IDC,天风证券研究所 云、边、终端云、边、终端混合部署混合部署,运算效率有望提升,运算效率有望提升。随着海量数据与运算需求大幅提升,计算能力和连接设备积累了大量数据,透过云、边、终端架构,以数据为中心将算力资源前置,在更靠近数据源的地方为用户提供低时延服务。整体产业链分为上、中、下游:1)上游包括由云服务商和硬件设备厂商,如谷歌、亚马逊、微软、阿里、腾讯等;2)中游主要包括运营商、边缘计算运营和管理的服务提供商;3)下游主要为智能终端和应用。边缘计算产业联盟认为边缘计算是在靠近物或数据源头的网络边缘侧,满足行业数字化在敏捷联接、实时业务、数据优化、应用智能、

13、安全与隐私保护等方面的关键需求。图图 2:云云-边边-终端架构(以数据为中心就近部署算力)终端架构(以数据为中心就近部署算力)资料来源:ByteTech、InfoQ,天风证券研究所 边、终端数据创建占比边、终端数据创建占比预计预计 25 年达到年达到 60%以上以上,AI 需求下沉扩大市场空间需求下沉扩大市场空间。根据 IDC 预测,2025年64%的数据将在传统数据中心之外创建,意味着更智能的处理将在设备上完成,而 5G 将使来自边缘丰富的数据实时地与其他设备和云共享。互联智能边缘的出现正在加速应用创新的需求,高通预计未来十年内公司潜在的市场扩大七倍多,达到 7000 亿美元。云计算与边缘计

14、算需要通过紧密协同才能更好地满足各种需求场景的匹配,从而最大化体现云计算与边缘计算的应用价值。84,447 101,349 122,819 149,023 181,869 221,178 -50,000 100,000 150,000 200,000 250,00020212022E2023E2024E2025E2026E 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 5 图图 3:高通预计运算需求下沉,有望带动公司潜在市场空间增加:高通预计运算需求下沉,有望带动公司潜在市场空间增加 7 倍倍 资料来源:高通官网,天风证券研究所 2022 年全球年全球 A

15、I 芯片市场规模芯片市场规模 169 亿美元,预计未来年复合增长率近亿美元,预计未来年复合增长率近 30%。根据 Precedence Research 数据,2022 年全球人工智能 AI 芯片市场规模估计为 168.6 亿美元,预计 2030 年达到 1351.8 亿美元,2022 年至 2030 年的复合年增长率为 29.7%;按照类型可以分为 GPU、ASIC、FPGA、CPU 等,每种芯片类型皆有不同功能;基于处理类型,边缘处理类型细分市场主导 AI 芯片市场,并在 2022 年产生超过 75%的收入份额,由于边缘处理在接近数据实际位置的地方进行计算,最大限度地提高了运算效率。图图

16、4:全球全球 AI 芯片市场规模(亿美元)芯片市场规模(亿美元)资料来源:Precedence Research,天风证券研究所 2025 年中国年中国 AI 芯片市场规模预计芯片市场规模预计超过超过 250 亿美金。亿美金。随着大算力中心的增加以及终端应用的逐步落地,中国 AI 芯片需求也持续增加。根据亿欧智库预测,2021 年中国 AI 芯片预计达到 427 亿人民币(按 6.9 汇率测算,约 61.8 亿美金),预计市场规模将于 2025 年达到1780 亿元(按 6.9 汇率测算,约 258 亿美金)。图图 5:中国中国 AI 芯片市场规模(亿人民币)芯片市场规模(亿人民币)资料来源:

17、亿欧智库、icspec,天风证券研究所 168.6218.7283.7368.0477.4619.3803.41042.11351.80200400600800016002022E2023E2024E2025E2026E2027E2028E2029E2030E426.8850.21038.81405.96008000020212022E2023E2024E2025E 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 6 AI 芯片中以芯片中以 GPU 为主,为主,ASIC、

18、FPGA 同步同步持续增加。持续增加。根据 IDC 数据,2021 年上半年中国人工智能芯片中,GPU 占有 90%以上的市场份额,而 ASIC、FPGA、NPU 等其他非 GPU 芯片也在各个行业和领域被越来越多地采用,预计到 2025 年加总的占比有望超过 20%。CPU处理复杂的逻辑运算,主要应用于传统的数据中心服务器;GPU 具有优秀的图形处理能力,主要应用于图像分类、平安城市、自动驾驶等领域;FPGA 可以根据算法逻辑实现特定场景下的计算。因此,FPGA 主要应用于深度学习、大数据分析等场景;ASIC 主要用于数据推理、辅助驾驶等。表表 1:CPU GPU ASIC FPGA 性能与

19、应用性能与应用 芯片种类芯片种类 计算性能计算性能 特性特性 AI 应用应用 CPU 低 通用性强,运算单元占芯片面积比例小等 人工智能处理性能和能效较低等 GPU 中 通用性好,运算单元占芯片面积比例大等 数据级并行处理,多用于服务器与数据中心等 FPGA 高 可通过硬件重构方式实现等 IC 原型验证与仿真,通过硬件重构实现 AI 应用等 ASIC 高 特定、单一专用 IC,指令集完全固化等 架构层面对特定智能算法作硬化支持等 资料来源:寒武纪招股说明书、华为官网,天风证券研究所 云、边、终端云、边、终端 AI 芯片,满足不同算力的应用场芯片,满足不同算力的应用场。人工智能技术在云端、边缘端

20、和终端设备中均有广泛应用,但都需要由核心芯片提供计算能力支撑。云、边、端三种场景对于芯片的运算能力和功耗等特性有着不同要求,由于云、边、端应用场景尚无标准划分界限,我们以寒武纪招股说明书中自主研发技术体系的数据为例,云端主要需求为高计算密度,因此主流算力大于 30 TOPS;终端应用于 AIoT 场景,主要需求为高效率与低功耗,因此主流算力小于 8 TOPS;边缘端应用场景与主流算力介于云端与终端之间。表表 2:云、边、终端算力与应用场景(:云、边、终端算力与应用场景(1 TOPS 代表每秒处理一万亿次人工智能基本运算代表每秒处理一万亿次人工智能基本运算)应用场景应用场景 主流算力主流算力 主

21、流功耗主流功耗 应用场景应用场景 主要需求主要需求 云端 大于 30 TOPS 大于 50 瓦 数据中心、私有云等 高效能、高计算密度、推理+训练 边缘端 5 TOPS-30 TOPS 4 瓦-15 瓦 介于云端与终端之间 多用于插电设备、推理任务为主 终端 小于 8 TOPS 小于 5 瓦 消费电子、AIoT 低功耗、高效率、推理任务为主 资料来源:寒武纪招股说明书,天风证券研究所 1.1.云端芯片:大模型训练投入提升,算力指数级增长云端芯片:大模型训练投入提升,算力指数级增长 预训练模型预训练模型与参数的提升,与参数的提升,带动服务器基础设施需求大幅增加。带动服务器基础设施需求大幅增加。人

22、工智能的模型自 2012年 AlexNet 问世以来,模型的深度和广度一直在逐级扩升,以 2018 年的时候 BERT-Large(基于 BERT 和 transformer 结构的模型)产生之后,兴起了一波模型规模和参数激增的热潮。从 BERT 模型出现到 GPT-3 1750 亿参数规模的千亿级大模型,大规模预训练模型成了一个新的技术发展趋势。根据CNBC报道,以微软Bing为例,基于OpenAI的 ChatGPT模型或需要 8 个 GPU 才能在不到一秒的时间内响应问题,按照这个速度测算需要超 2 万台 8-GPU 服务器,按照 Nvidia DGX A100(八个 A100 GPU 协

23、同工作的系统)建议售价近 2 万美元测算,需要 40 亿美元的基础设施支出。图图 6:近十年主流模型计算量与参数量近十年主流模型计算量与参数量 图图 7:NLP 模型模型参数参数呈指数级增长呈指数级增长 资料来源:杏霖云、OpenAI,天风证券研究所 资料来源:Nvidia 官网,天风证券研究所 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 7 浮点与大量数据并行计算需求,加速卡成为云端浮点与大量数据并行计算需求,加速卡成为云端 AI 处理基础配置。处理基础配置。随着智能化程度日益提高,所需的数据处理量正在呈指数级增长;CPU 的核心是将其较少数量的核心集

24、中在单个任务上快速完成,擅长逻辑控制、串行的运算;而 GPU 提供了多核并行计算的基础结构,拥有更高的浮点运算能力且可支撑大量数据的并行计算;因此 GPU 主要是作为加速某些CPU执行起来效率较低的数据处理任务。以技嘉科技服务器G190-G30为例,除了Intel Xeon E5-2600 v3/v4 系列处理器外,另搭载 4 张支持 NVLink 内联架构的 NVIDIA Tesla P100 或 V100 加速卡。图图 8:技嘉科技技嘉科技 G190-G30 高效能服务器高效能服务器 资料来源:技嘉科技官网,天风证券研究所研究所 AI 服务器服务器需求量有望快速增长,预计需求量有望快速增长

25、,预计 2022-2026 年年 CAGR 10.8%。根据 TrendForce 数据,截至 2022 年统计 AI 服务器年出货量占整体服务器比重近 1%,随着大型云端业者开始大量投入AI相关的设备建设,AI服务器20222026年复合成长率有望达到10.8%;2023年全球服务器出货量预计 1443 万台,同比增长 1.31%,AI 服务器出货量增速有望高于全球总服务器出货量。我们以浪潮服务器配置为例,通用服务器 NF5280M6 是基于全新一代英特尔至强第三代可扩展处理器打造,单 CPU 最高拥有 40 个内核及 80 线程,最大支持TDP 270W CPU 最高主频 3.6 GHz;

26、AI 服务器 NF5688M6 是浪潮为超大规模数据中心研发,同时拥有高性能,高兼容,强扩展的新一代 NVLink 的 AI 服务器。AI 优化服务器NF5280M5 是专为全新 AI 应用优化的 2U 双路机架高端产品,支持第二代智能英特尔至强可扩展处理器,在 2U 机箱内支持 4 片 GPU 加速卡,其高品质、高可靠的表现,适用于一系列高要求的 AI 应用。表表 3:浪潮服务器产品配置:浪潮服务器产品配置 功能功能 通用服务器通用服务器 AI 服务器服务器 AI 优化服务器优化服务器 型号 NF5280M6 NF5688M6 NF5280M5 处理器 1 到 2 个英特尔至强系列第三代可扩

27、展处理器 2颗第三代Intel Xeon可扩展处理器(Ice Lake)2 颗第二代 Intel Xeon Scalable 系列处理器 计算模块 无 8 颗 NVIDIA A800 GPU 4 片 NVIDIA GPU 卡;2 片 Xilinx Alveo U200 FPGA 卡 内存 最大支持 32 条内存,最大速度可达3200MT/s.支 32 条DDR4 RDIMM/LRDIMM 内存,速率最高支持 3200MT/s 24 条 2933MT/s DDR4 ECC 内存 资料来源:浪潮官网,天风证券研究所 全场景的全场景的 AI 解决方案能使解决方案能使模型模型训练高效化。训练高效化。人

28、工智能训练随着模型的规模和复杂性不断增加,训练时间相应增加,导致生产力降低和成本增加,完整的解决方案可显著加速 AI训练,从而加快模型探索、显着节省成本,因此除了算力以外,核心架构、功耗、内存等参数也是重要的配置指标。此外在运算能力方面,单位 TFLOPS(tera FLOPS)为每秒一万亿(=1012)次的浮点运算;TOPS 为处理器每秒钟可进行一万亿次(1012)操作。行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 8 表表 4:云端:云端 AI 芯片公司与产品参数(不完全统计)芯片公司与产品参数(不完全统计)公司名称公司名称 主要产品主要产品 产品型号

29、产品型号 核心功能核心功能 核心架构核心架构 运算能力运算能力 内存大小内存大小 内存带宽内存带宽 功耗功耗 制程制程 Nvidia GPU、CPU Nvidia P100 训练 NVIDIA Pascal 10.6 TFLOPSFP32 16GB 732 GB/s 300W 16nm Nvidia V100 训练和推理 NVIDIA Volta 15.7 TFLOPSFP32 32 GB 1134 GB/s 250W 12nm Nvidia A100 训练和推理 NVIDIA Ampere 1248 TOPSINT8 80GB 2039 GB/s 400W 7nm Nvidia H100 训

30、练和推理 NVIDIA Ampere 3958 TOPSINT8 80GB 3.35 TB/s 700W TSMC 4N Nvidia T4 训练和推理 NVIDIA Turing 130 TOPSINT8 16GB 300 GB/s 70W 12nm Intel CPU、GPU Intel Goya 推理 TPC 1.0 NA NA NA 100W 16nm Intel Greco 推理 NA NA 16GB NA 75W NA Intel Gaudi 训练和推理 TPC 2.0 NA 32GB 2 TB/s 200W 16nm Intel Gaudi2 训练和推理 异构 NA 96GB 2

31、.45 TB/s 600W 7nm Xilinx FPGA Xilinx Alveo 推理 Xilinx16nm UltraScale NA 8GB 201 GB/s 75W 16nm Google ASIC Google TPU v1 推理 多核 NA 8GB 34 GB/s NA 28nm Google TPU v2 训练和推理 多核 46 TFLOPSBF16 16GB 700 GB/s NA 16nm Google TPU v3 训练和推理 多核 123 TFLOPSBF16 32GB 900 GB/s 262W 16nm Google TPU v4 推理 多核 275 TFLOPSB

32、F16 32GB 1200 GB/s 192W 7nm 华为 海思 ASIC Ascend 310 推理 NPU 16 TOPSINT8 NA NA 8W 12nm Ascend 910 训练和推理 NPU 640 TOPSINT8 NA NA 310W 7nm 阿里平头哥 ASIC 阿里平头哥 含 光800 推理 多核 825 TOPSINT8 NA NA 276W 12nm 燧原科技 GPU 燧原科技 云燧 i10 推理 多核 70.4 TOPSINT8 16GB 512 GB/s 150W 12nm 燧原科技 云燧 i20 推理 GCU-CARA 2.5 256 TOPSINT8 16G

33、B 819 GB/s 150W 12nm 燧原科技 云燧 T10 推理 GCU-CARA 1.0 20 TFLOPSFP32 16GB 512 GB/s 225W 12nm 燧原科技 云燧 T11 推理 GCU-CARA 1.0 22 TFLOPSFP32 16GB 560 GB/s 300W 12nm 燧原科技 云燧 T20 训练 GCU-CARA 2.0 256 TOPSINT8 32GB 1.6 TB/s 300W 12nm 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 9 燧原科技 云燧 T21 训练 GCU-CARA 2.0 256 TOPSIN

34、T8 32GB 1.6 TB/s 300W 12nm 寒武纪 ASIC 寒 武 纪 思元 100 训练 MLUv01 32 TOPSINT8 8GB/16GB 102.4 GB/s 75W 16nm 寒 武 纪 思元 270 训练和推理 MLUv02 128 TOPSINT8 16GB 102 GB/s 70W 16nm 寒 武 纪 思元 290 训练和推理 MLUv02 512 TOPSINT8 32GB 1228 GB/s 350W 7nm 寒 武 纪 思元 370 训练和推理 MLUv03 256 TOPSINT8 48GB 614.4 GB/s 250W 7nm 百度 ASIC 百度昆

35、仑芯 K 系列 推理 XPU-K 256 TOPSINT8 NA 512 GB/s 75W 14nm 百度昆仑芯 R 系列 训练和推理 XPU-R 256 TOPSINT8 32GB 512 GB/s NA 7nm 资料来源:Nvidia、Intel、Xilinx、Google、华为海思、阿里平头哥、燧原科技、寒武纪、百度昆仑芯等官网,天风证券研究所 1.2.边端芯片:云端与终端的中继站,满足边端芯片:云端与终端的中继站,满足 AI 轻量化部署需求轻量化部署需求 边缘计算具备实时、灵活、降本等特性,数据采集量增加也会提升模型准确性。边缘计算具备实时、灵活、降本等特性,数据采集量增加也会提升模型

36、准确性。AI 模型可分为两个阶段:1)训练:需耗费大量的运算能力、内存、储存空间等,通常只能放在服务器或是大型工作站进行多次的迭代运算,模型训练完成后可以得到模型的最佳权重;2)推理:当边、终端有新的数据被抓取进来,可以直接通过已训练好的模型进行推论。边缘AI 的优势包含灵活性、实时洞察、降低成本、增加隐私、高可用性等特性,去中心化使得处理数据不需要互联网访问,这为关键任务、生产级 AI 应用程序带来了更高的可用性和可靠性。此外 AI 模型在训练更多数据时会变得越来越准确。当边缘 AI 应用程序遇到它无法准确处理的数据时,它通常会上传数据,以便 AI 可以重新训练并从中学习,模型在边缘生产的时

37、间越长,也会使得模型就越准确。AI 算法能够理解语言、视觉、声音、气味、温度、面部和其他非结构化信息的仿真形式,相较于结构化数据更能贴近现实世界,随着神经网络、计算基础设施、物联网设备逐步成熟,催生出边缘 AI 相关需求。图图 9:AI 模型训练与推理示意图模型训练与推理示意图 资料来源:Intel(Distributed MLPerf ResNet50 Training on Intel Xeon Architectures with TensorFlow,Wei Wang,Niranjan Hasabnis),天风证券研究所 边缘边缘 AI 泛指靠近用户部署轻量服务器,降低数据中心的网路流

38、量与延时。泛指靠近用户部署轻量服务器,降低数据中心的网路流量与延时。深度学习的训练过程通常在数据中心或云端运行,因为训练准确的模型需要大量数据,而且需要数据科学家协作配置模型;训练结束后,模型即成为推理引擎。在边缘 AI 部署中,推理引擎在工厂、医院、汽车、卫星和家庭等地区的某种计算器或设备上运行。当 AI 遇到问题时,数据会上传到云端,以进一步训练原始 AI 模型,这个反馈回路在提高模型性能方面起着重要作用。边缘有很多定义,但一般来说边缘可以定义为本地系统或在边缘云中预先部署的服务器,而这些服务器与用户的接近程度减轻了遍历数据中心所需的网络流量和延迟。行业行业报告报告|行业专题研究行业专题研

39、究 请务必阅读正文之后的信息披露和免责申明 10 图图 10:边缘边缘 AI 应用流程示意图应用流程示意图 资料来源:Nvidia 官网,天风证券研究所 全球边缘全球边缘AI处理器市场规模近处理器市场规模近30亿美元,亿美元,快速响应快速响应需求增加有望带动市场规模快速增长。需求增加有望带动市场规模快速增长。由于机器学习创建的数据在设备上处理的需求增加,有望带动边缘人工智能处理器市场快速增长;2022 年全球边缘 AI 处理器市场规模达到 29.1 亿美元,根据 Research Dive 数据,预计 2025 年将达到 46 亿美元,3 年年复合增长率达到 16%,预计 2030 年有望突破

40、 90 亿美元的规模。边缘 AI 运算需要实时评估信息的应用程序提供海量数据处理、训练和预测等实时活动进而达到最小的延迟与实时自动决策。以自动驾驶为例,在检测到可能发生的碰撞和改变转向或制动之间是不允许有延迟,设备上的 AI 减少数据共享可以加快回复速度;以 IoT 为例,设备将大量数据发送到执行机器学习算法并将结果返回给设备的云,导致延迟响应;这些案例都是推动全球边缘 AI 处理器市场增长的动力。图图 11:全球边缘全球边缘 AI 处理器市场规模(亿美元)处理器市场规模(亿美元)资料来源:Research Dive,天风证券研究所 边缘服务器就近部署,边缘服务器就近部署,轻量化轻量化实现实现

41、智能处理智能处理增加实时性。增加实时性。边缘服务器具有体积较小、环境适应性更优、支持多种安装方式、快速前维护和统一管理接口等技术特点。边缘计算是在靠近物或数据源头的网络边缘侧,融合网络、计算、存储、应用核心能力的开放平台,就近提供边缘智能服务,以降低对远端数据中心的流量冲击,有利于计算框架在终端和数据中心间的延展。以浪潮轻量化边缘服务器 NE3160M5 为例,最大支持 16 核/2.2GHz,最大热设计功率为 105W;相比于全场景适配的服务器 NF5280M6,最多支持 40 核/2.3GHz(最高频率 3.6GHz(4 核),最大热设计功率 270W;具备较强的环境适应性,较适用于AIO

42、T 和其他智能边缘应用。随着物联网、5G 等新技术的发展,海量数据从边缘端传入边缘计算平台以驱动实时洞察和决策,给存储和网络带宽带来很大的成本和压力。以浪潮边缘微服务器 EIS200 为例,在不足 30W 的功耗下支持高达 21 TOPS AI 算力,最多支持 32路 1080 高清视频解码与 6 路编码,支持有线网络、WiFi、ZigBee、4G、5G 等多种网络方式,主要面向智慧零售、智能制造、智慧城市和智慧物流等众多边缘 AI 应用场景。24.8429.1434.1039.5645.880.005.0010.0015.0020.0025.0030.0035.0040.0045.0050.

43、00202120222023E2024E2025E 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 11 图图 12:浪潮边缘服务器部署架构(以浪潮边缘服务器部署架构(以智能质检解决方案智能质检解决方案为例)为例)资料来源:浪潮官网,天风证券研究所 随着物联网设备增加,边缘服务器需求有望快速增长。随着物联网设备增加,边缘服务器需求有望快速增长。根据 ODCC 边缘计算白皮书与Omdia 调研数据,2019 年全球发货的 1190 万台 DC 服务器中,有 240 万台部署在边缘,总收入达 147 亿美元,同比增加 8。随着物联网连接设备数量的增长,低延迟、多

44、链接、高带宽的新兴业务以及数据本地化安全处理需求,驱动边缘部署服务器的市场持续快速增长,预计 2024 年边缘服务器的市场份额有望达到 28%。部署在边缘环境的服务器形态百花齐放,目前部署在边缘环境的服务器形态主要包括塔式、机架式、刀片式、HCI 和开放式计算服务器等。表表 5:边:边端端 AI 芯片公司与产品参数(不完全统计)芯片公司与产品参数(不完全统计)产品型号产品型号 芯片形态芯片形态 核心架构核心架构 运算能力运算能力 内存大小内存大小 内存带宽内存带宽 功耗功耗 制程制程 NVIDIA Jetson Nano GPU NVIDIA Maxwell 0.5 TFLOPSFP16 4G

45、B 25.6GB/s 5W 28nm NVIDIA Jetson TX2 GPU NVIDIA Pascal 1.33 TFLOPSFP16 4GB 59.7GB/s 7.5 W 16nm NVIDIA Xavier-NX GPU NVIDIA Volta 21 TOPSINT8 8GB 59.7GB/s 20W 12nm NVIDIA AGX-XAVIER GPU NVIDIA Volta 22 TOPSINT8 64GB 136.5GB/s 30W 12nm Nvidia T4 GPU NVIDIA Turing 130 TOPSINT8 16GB 300 GB/s 70W 12nm 寒武

46、纪 思元 220 ASIC MLUv02 8 TOPSINT8 4GB 29GB/s 8.25W 16nm 华为海思 Ascend 310 ASIC NPU 16 TOPSINT8 NA NA 8W 12nm 紫光展锐 虎贲 T710 ASIC 异构双核 NPU 3.2 TOPSINT8 NA NA 2.3W 12nm 鲲云 星空 x3 ASIC CAISA 3.0 10.9 TOPSINT8 NA NA 23.8 W NA 鲲云 星空 x6A ASIC CAISA 3.0 4 TOPSINT8 8GB NA 30W NA 瑞芯微 RV1126 SoC 四核 ARM Cortex-A7 2.0

47、 TOPSINT8 NA NA NA NA 瑞芯微 RK3588 SoC 8 核 64 位架构 6TOPsINT8 NA NA NA 8nm 天数智芯 Iluvatar CoreX I GPU 通用 296 TOPSINT8 32GB 273GB/s 5W 16nm 资料来源:Nvidia、寒武纪、华为海思、紫光展锐、鲲云、瑞芯微、天数智芯官网,天风证券研究所 1.3.终端芯片:终端芯片:AIGC 应用多点开花,终端应用多点开花,终端 AI SoC 迎来升级变革迎来升级变革 AIGC 人工智能内容生成人工智能内容生成百花齐放百花齐放,终端交互需求快速增长,终端交互需求快速增长。AIGC 生成的

48、内容种类越来越丰富,而且内容质量也在显着提升,随着 AIGC 模型通用化水平和工业化能力提升,有望降低内容生产和交互的门槛和成本,在消费互联网领域日趋主流化,实现写作助手、AI 绘画、对话机器人等应用。目前 AICG 在文本、语音、图片生成等应用已初步形成交互场景,但在视频、3D 等复杂度较高的领域仍处于探索阶段,AIGC 在非结构化数据处理与应用仍有较大的发展空间。根据腾讯研究院与 Acumen Research and Consulting 预测,2030 年AIGC 市场规模有望达到 1100 亿美元。行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 1

49、2 图图 13:AIGC 基础模型和应用发展预测基础模型和应用发展预测 资料来源:腾讯研究院、199IT,天风证券研究所 全球物联网连接设备快速增长,各应用领域多点开花全球物联网连接设备快速增长,各应用领域多点开花。根据 GSMA 公布的数据,2019年全球物联网连接设备量达到 120 亿台,预计到 2025 年总连接数将会达到 246 亿台,年复合增长率达 13%;根据中国工信部发布的数据,中国物联网连接数占全球的 30%,预计 2025 年将会达到 80 亿台。从未来 6 年增量的设备来看,主要增长来自智能家居,包含家电、网络基础设施、安全设备等;智慧建筑包含企业安全自动化、企业资产和设备

50、等。图图 14:2019-2025 年全球物联网设备连接量(十亿台)年全球物联网设备连接量(十亿台)资料来源:GSMA,天风证券研究所 终端终端朝向朝向 AI 应用应用发展,发展,SoC 成为成为为智能终端的算力主控为智能终端的算力主控。AI 应用提升产品智能化与用户交互的体验;终端运算包括实时性、数据隐私等优势,且对设备制造商来说,不需要在产品销售的每个区域都布署云基础设施的支持,缩短产品上市的时间。其中底层硬件产品SoC 是在一块芯片上集成一整个信息处理系统,拥有整个数字和模拟电路系统的完整功能,主要集成中央处理器、图形处理器、视频编解码器、显示控制器、总线控制器、内存子系统、音频处理器、

51、输入输出子系统以及各类高速模拟接口等功能模块。因此,SoC 的电路较为复杂,对研发设计、制造工艺以及软硬件协同开发技术的要求较高,整体流程包含从基础技术的研发到芯片应用的开发最终形成 SOC 产品。图图 15:终端人工智能应用终端人工智能应用 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 13 资料来源:联发科、eet-china(https:/www.eet- SoC 涵盖声音、影像、涵盖声音、影像、AI 处理,为智能化场景提供完整解决方案。处理,为智能化场景提供完整解决方案。我们以联发科智能物联网平台 Genio 700 为例,该 SoC 整合高性能八

52、核 CPU,适用于智能家居、互动零售、企业、商业、工业物联网等场景;预计 2023 年第二季度开始商用。Genio 700 采用高能效6nm 制程,八核 CPU 包含 2 个主频为 2.2GHz 的 Arm Cortex-A78 核心与 6 个主频为 2.0GHz的 Cortex-A55 核心,整合的 AI 加速器可提供 4 TOPs 运算性能,可支持深度学习(DL)、神经网络(NN)加速,以及计算器视觉(CV)应用;多媒体方面,拥有 4K 60Hz 和 FHD 60Hz的显示,整合 ISP 影像讯号处理器,提供更出色的影像画质。图图 16:联发科联发科 Genio 700 资料来源:联发科,

53、勤业物联官网,天风证券研究所 AI 用户需求庞大,终端应用不断落地用户需求庞大,终端应用不断落地。以 ChatGPT 为例,根据 Statista 与中国工信产业网数据,ChatGPT 发布五天用户便超过 100 万人,发布两个月用户突破 1 亿,成为史上用户数增长最快的消费者应用。ChatGPT 可以生成类人文本的对话式 AI 机器人已被用于各种用途,从编写短篇小说、散文、音乐和学期论文到编写基本代码、解决数学问题和进行翻译。2023 年 2 月微软宣布在新版 Bing 搜索引擎及 Edge 浏览器整合 OpenAI 旗下人工智能技术,可以更容易理解使用者输入的字词,进一步搜寻完整的答案;2

54、023 年 3 月微软宣布,正在透过 Microsoft 365 Copilot 将新一代 AI 强大功能导入生产力工具,也就是在使用 Office 工具,都有一个 AI 人工智能助手Copilot,帮助用户可以透过对话的方式更有效率完成工作。图图 17:各应用突破各应用突破 100 万用户花费的时间万用户花费的时间 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 14 资料来源:Statista,天风证券研究所 1.4.存储芯片:大数据同步算力提升存储芯片:大数据同步算力提升,AI 需求推动市场增长需求推动市场增长 AI 运算需足够的内存带宽,智能化有望带

55、动运算需足够的内存带宽,智能化有望带动 DRAM 需求提升。需求提升。高性能 AI 应用中最常见的内存类型包含片上内存、HBM(高带宽内存)和 Graphics DDR、SDRAM。SRAM 形式的片上存储器是目前可用的最高带宽和最节能的解决方案,但片上存储器的容量低,适用于运行较小的神经网络,或多个芯片之间拆分神经网络协同工作;目前性能最高的两种外部存储器是 HBM 和 GDDR。HBM 是一种新型新型堆栈技术,每个 HBM 堆栈都有 1,024 条数据线但以低速运行传输数据;GDDR 数据线少于HBM,但以更高的数据速率运行。如果处理器没有提供足够的内存带宽,那么架构可能会出现瓶颈,从而阻

56、止计算单元在等待来自内存系统的数据时以最佳性能运行。图图 18:AI 应用中常见的内存类型应用中常见的内存类型 资料来源:Rrambus 官网,天风证券研究所 NAND Flash 发展发展垂直方向堆栈垂直方向堆栈 3D NAND 层数层数。3D NAND 层数是目前 NAND 主要发展方向,主流厂商与现有技术分别为三星 176 层(V7)、铠侠 162 层(BiCS6)、美光 176 层(2nd CTF)、海力士 176 层(V7)、长江存储的 128 层 Xtacking TLC/QLC。3D NAND 的一些技术挑战集中在越来越高的深宽比;2022 年三星凭借生产技术、价格和性能竞争力,

57、将 NAND Flash 堆栈层数从现有基础上增加 60 层达到 236 层堆栈,I/O 速率达到了 2.4Gbps,相较于上一代产品提高 1.2 倍。国内长江存储通过创新布局和缜密验证,基于晶栈 Xtacking 研发制造的 3D NAND 将更具成本和创新优势。图图 19:NAND Flash 技术路径与各厂商进展技术路径与各厂商进展 资料来源:TechInsights,EE Times,天风证券研究所 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 15 全球存储芯片市场全球存储芯片市场规模达规模达千亿美千亿美元但具备较强的周期性元但具备较强的周期性。

58、根据 WSTS、中商产业研究数据,2017-2021 年,全球存储芯片市场规模分别为 1240、1580、1064、1175、1538 亿美元;其中 2019 年受下游需求放缓影响导致存储芯片价格下滑,整体市场规模下降;2020 年由于下游需求回暖叠加产能紧俏,存储芯片行业恢复增长;2020 与 2021 年存储芯片市场规模同比增速分别为 10%、31%;预计 2022 年存储芯片的销售额为 1555 亿美元,同比增长1.1%;从中长期来看,根据 Yole 数据 2021-2027 年全球存储芯片行业市场规模的复合年增长率为 8%,并有望在 2027 年增长到 2600 亿美元以上,但产业会随

59、库存、需求、产能的变化而具有明显的周期性。全球存储类芯片市场中以 DRAM 和 NAND Flash 为主,2021 年市场规模占整体存储芯片市场规模的比例分别为 56.4%和 40.1%,DRAM 和 NAND Flash 合计占比约为 96.5%。图图 20:全球存储芯片行业市场规模(亿美金)与同比增速全球存储芯片行业市场规模(亿美金)与同比增速 图图 21:2021 年存储芯片产品结构年存储芯片产品结构 资料来源:WSTS、中商产业研究院、深圳市电子商会,天风证券研究所 资料来源:Yole,天风证券研究所 随着全新处理器相继随着全新处理器相继推出有望推出有望带动存储需求带动存储需求持续向

60、上持续向上。手机方面联发科天玑 9200旗舰移动平台具有高性能、高能效、低功耗表现为旗舰市场打造新旗舰标杆,率先采用 Armv9 性能核,搭载 Cortex-X3 超大核(主频高达 3.05GHz)及 Cortex-A715 大核(主频高达 2.85GHz),存储支持 LPDDR5x、UFS 4+MCQ;服务器市场,2022 年 11 月 AMD 发布 EPYC 9004 系列处理器 Genoa,支持 DDR5-4800 内存;英特尔 2023 年 1 月发布的第四代 Xeon Scalable 系列处理器 Sapphire Rapids,采用 10 纳米 Enhanced SuperFin(

61、Intel 7)制程技术生产;新平台还支持 PCIe Gen5、CXL 1.1(Compute Express Link)和 8 信道 DDR5 内存。图图 22:联发科天玑联发科天玑 9200 处理器处理器 图图 23:AMD 发布发布 EPYC 9004 处理器处理器 资料来源:联发科官网,天风证券研究所 资料来源:AMD 官网,天风证券研究所 2.建议关注建议关注 云端云端 AI 相关企业:相关企业:寒武纪、海光信息(天风计算机覆盖)、龙芯中科、紫光国微、复旦微电、安路科技等。边边/终端终端 AI 相关企业:相关企业:瑞芯微、恒玄科技、晶晨股份、全志科技、乐鑫科技、富瀚微、中科蓝讯、炬芯

62、科技、兆易创新、中颖电子、芯海科技等。411751538 155527%-33%10%31%1%-40%-30%-20%-10%0%10%20%30%40%020040060080007 2018 2019 2020 2021 2022E市场规模yoy56.4%40.1%2.1%0.4%0.6%0.4%DRAMNANDNOREEPROM/其他SRAM/FRAM新型非易失性存储 行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 16 存储相关企业:存储相关企业:澜起科技、聚辰股份、北京君正、普冉股

63、份、东芯股份、江波龙(天风计算机联合覆盖)、佰维存储等。AI 应用端相关企业:应用端相关企业:工业富联、大华股份、海康威视等。表表 6:重点关注公司(:重点关注公司(Wind 一致预期,数据截至一致预期,数据截至 2023 年年 3 月月 23 日)日)公司名称 净利润(亿元)PE 市值(亿元)2022E 2023E 2022E 2023E 寒武纪-U-7.6-4.4 669 海光信息 14.2 21.2 108 72 1,539 龙芯中科 2.7 4.6 216 128 583 紫光国微 29.1 40.6 32 23 936 复旦微电 14.9 18.8 40 32 596 安路科技-U

64、0.9 1.9 326 152 295 瑞芯微 4.3 6.8 94 60 407 恒玄科技 3.1 4.9 59 37 180 晶晨股份 11.6 15.8 32 24 374 全志科技 3.4 4.3 53 42 180 乐鑫科技 2.0 2.9 55 39 111 富瀚微 4.2 5.5 41 31 172 中科蓝讯 2.3 3.5 36 24 82 炬芯科技 49 兆易创新 24.8 26.9 31 29 778 中颖电子 3.9 4.5 36 32 142 芯海科技 1.5 2.4 44 28 67 澜起科技 18.6 26.9 42 29 784 聚辰股份 5.7 7.5 22 1

65、7 127 北京君正 9.3 11.7 44 35 411 普冉股份 84 东芯股份 4.6 5.9 31 24 143 江波龙 4.0 6.0 83 55 330 C 佰维 167 工业富联 237.1 263.7 14 13 3,374 大华股份 24.0 34.2 27 19 655 海康威视 169.3 201.8 25 21 4,195 资料来源:Wind,天风证券研究所 3.相关风险相关风险 下游下游需求不如预期需求不如预期:下游市场需求如发生重大不利变化,或影响产品推广使市场规模下滑。库存去化不如预期库存去化不如预期:如出现不可预测的市场需求的较大变化,导致市场需求出现下降,则可

66、能出现一定的存货风险。研发与技术升级不如预期研发与技术升级不如预期:随着产品换代、技术升级、用户需求和市场竞争状况不断演变,AI 相关产品研发及技术更新换代不如预期或影响整体产业发展。宏观环境变动带来的风险宏观环境变动带来的风险:受贸易政策、宏观经济形势等因素影响,全球经济和半导体产业发展注入了新的不确定性和风险。行业行业报告报告|行业专题研究行业专题研究 请务必阅读正文之后的信息披露和免责申明 17 分析师声明分析师声明 本报告署名分析师在此声明:我们具有中国证券业协会授予的证券投资咨询执业资格或相当的专业胜任能力,本报告所表述的所有观点均准确地反映了我们对标的证券和发行人的个人看法。我们所

67、得报酬的任何部分不曾与,不与,也将不会与本报告中的具体投资建议或观点有直接或间接联系。一般声明一般声明 除非另有规定,本报告中的所有材料版权均属天风证券股份有限公司(已获中国证监会许可的证券投资咨询业务资格)及其附属机构(以下统称“天风证券”)。未经天风证券事先书面授权,不得以任何方式修改、发送或者复制本报告及其所包含的材料、内容。所有本报告中使用的商标、服务标识及标记均为天风证券的商标、服务标识及标记。本报告是机密的,仅供我们的客户使用,天风证券不因收件人收到本报告而视其为天风证券的客户。本报告中的信息均来源于我们认为可靠的已公开资料,但天风证券对这些信息的准确性及完整性不作任何保证。本报告

68、中的信息、意见等均仅供客户参考,不构成所述证券买卖的出价或征价邀请或要约。该等信息、意见并未考虑到获取本报告人员的具体投资目的、财务状况以及特定需求,在任何时候均不构成对任何人的个人推荐。客户应当对本报告中的信息和意见进行独立评估,并应同时考量各自的投资目的、财务状况和特定需求,必要时就法律、商业、财务、税收等方面咨询专家的意见。对依据或者使用本报告所造成的一切后果,天风证券及/或其关联人员均不承担任何法律责任。本报告所载的意见、评估及预测仅为本报告出具日的观点和判断。该等意见、评估及预测无需通知即可随时更改。过往的表现亦不应作为日后表现的预示和担保。在不同时期,天风证券可能会发出与本报告所载

69、意见、评估及预测不一致的研究报告。天风证券的销售人员、交易人员以及其他专业人士可能会依据不同假设和标准、采用不同的分析方法而口头或书面发表与本报告意见及建议不一致的市场评论和/或交易观点。天风证券没有将此意见及建议向报告所有接收者进行更新的义务。天风证券的资产管理部门、自营部门以及其他投资业务部门可能独立做出与本报告中的意见或建议不一致的投资决策。特别声明特别声明 在法律许可的情况下,天风证券可能会持有本报告中提及公司所发行的证券并进行交易,也可能为这些公司提供或争取提供投资银行、财务顾问和金融产品等各种金融服务。因此,投资者应当考虑到天风证券及/或其相关人员可能存在影响本报告观点客观性的潜在

70、利益冲突,投资者请勿将本报告视为投资或其他决定的唯一参考依据。投资评级声明投资评级声明 类别类别 说明说明 评级评级 体系体系 股票投资评级 自报告日后的 6 个月内,相对同期沪 深 300 指数的涨跌幅 行业投资评级 自报告日后的 6 个月内,相对同期沪 深 300 指数的涨跌幅 买入 预期股价相对收益 20%以上 增持 预期股价相对收益 10%-20%持有 预期股价相对收益-10%-10%卖出 预期股价相对收益-10%以下 强于大市 预期行业指数涨幅 5%以上 中性 预期行业指数涨幅-5%-5%弱于大市 预期行业指数涨幅-5%以下 天风天风证券研究证券研究 北京北京 海口海口 上海上海 深圳深圳 北京市西城区佟麟阁路 36 号 邮编:100031 邮箱: 海南省海口市美兰区国兴大道 3 号互联网金融大厦 A 栋 23 层 2301 房 邮编:570102 电话:(0898)-65365390 邮箱: 上海市虹口区北外滩国际 客运中心 6 号楼 4 层 邮编:200086 电话:(8621)-65055515 传真:(8621)-61069806 邮箱: 深圳市福田区益田路 5033 号 平安金融中心 71 楼 邮编:518000 电话:(86755)-23915663 传真:(86755)-82571995 邮箱:

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(半导体行业专题研究:ChatGPT推动AI芯应用算力提升终端多点开花-230323(17页).pdf)为本站 (开心时刻) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
小程序

小程序

客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部