上海品茶

计算机行业:从关键论文看边缘AI-240701(15页).pdf

编号:166757 PDF   DOC  15页 1.17MB 下载积分:VIP专享
下载报告请您先登录!

计算机行业:从关键论文看边缘AI-240701(15页).pdf

1、请仔细阅读本报告末页声明请仔细阅读本报告末页声明 证券研究报告|行业点评 2024 年 07 月 01 日 计算机计算机 从关键论文看边缘从关键论文看边缘 AI 苹果发布苹果发布 Apple Intelligence,自研端,自研端+云模型能力优秀。云模型能力优秀。2024 年全球开发者大会上,苹果推出了个人智能系统 Apple Intelligence,其中用到两个模型:一个 30亿参数的设备端模型,以及一个更大的在服务器上运行的模型。Apple Intelligence在基础模型上增加了许多适配器针对总结、校对、邮件回复、音调调整、查询处理、友好性、紧急情况等不同具体任务进行了优化。在多项

2、能力评测中,苹果自研的设备端模型和服务器模型相对可比的开源或商用模型均取得了优秀的成绩。解决边缘侧性能问题,苹果技术储备充分。解决边缘侧性能问题,苹果技术储备充分。大语言模型对计算和内存的大量要求带来了挑战,2023 年 12 月苹果发布论文 LLM in a flash:Efficient Large Language Model Inference with Limited Memory提出将模型参数存储在闪存中,按需将其引入内存,解决高效运行超过可用内存容量的大模型的挑战,论文中使用窗口化技术通过重用以前激活的神经元来减少数据传输,行列捆绑增加了从闪存读取的数据块的大小。Apple In

3、telligence 还使用了一系列创新技术以提高模型运行速度和效率,如采用分组注意力查询机制等。在 iPhone 15 Pro 上,Apple Intelligence能达到每个 token 约 0.6 毫秒的首次延迟,以及每秒 30 个 token 的生成速率。科技巨头纷纷布局,加速边缘侧智能助理产业变革。科技巨头纷纷布局,加速边缘侧智能助理产业变革。1)2024 年 5 月 OpenAI 推出最新的旗舰模型 GPT-4o,可以实时推理音频、视觉和文本,发布会上 OpenAI直播演示了 GTP-4o 强大的交互能力,是人机交互领域的重大进步。2)2024 年 5月谷歌 IO 大会上展示了基

4、于 Gemini 大模型对 AI 助手的探索项目 Astra,演示了在手机以及眼镜设备上实时推理环境并与用户交互的能力。我们认为科技巨头从边缘侧模型到硬件均在不断做出创新探索,加速智能助理的产业变革,有望打开各类终端软硬件的新增长空间。建议关注建议关注:1)算力侧:寒武纪、中际旭创、新易盛、工业富联、浪潮信息、海光信息、中科曙光、软通动力、协创数据、云赛智联、神州数码、高新发展、利通电子、烽火通信等。2)投资修复信创:达梦数据、纳思达、金山办公、中科曙光、顶点软件。数字化龙头:海康威视、大华股份。医疗 IT:创业慧康、卫宁健康。车路云:金溢科技、万集科技、千方科技。3)AI 相关:海康威视、中

5、科创达、立讯精密、鹏鼎控股、金山办公、大华股份、拓尔思、润达医疗、漫步者、云天励飞、虹软科技、昆仑万维、中广天择、同花顺、科大讯飞、万兴科技、用友网络、赛意信息等。4)自动驾驶:赛力斯、江淮汽车、万马科技、长安汽车、德赛西威、中科创达、海天瑞声、北汽蓝谷、菱电电控、华依科技、经纬恒润、东风汽车、光庭信息等。5)机器人:三花智控、北特科技、鸣志电器、拓普集团、绿的谐波等。6)卫星互联网:海格通信、普天科技、创意信息、上海瀚讯等。风险提示风险提示:AI 技术迭代不及预期风险;经济下行超预期风险;行业竞争加剧风险。增持增持(维持维持)行业行业走势走势 作者作者分析师分析师 刘高畅刘高畅 执业证书编号

6、:S0680518090001 邮箱: 相关研究相关研究 1、计算机:24Q2 前瞻:算力依旧为基,投资逐步筑底2024-06-30 2、计算机:科技迎资本市场政策支持2024-06-23 3、计算机:投资修复方向探讨2024-06-23-48%-32%-16%0%16%--06计算机沪深300 2024 年 07 月 01 日 P.2 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 内容目录内容目录 苹果发布 Apple Intelligence,自研端+云模型能力优秀.3 解决边缘侧性能问题,苹果技术储备充分.6 科技巨头纷纷布局,加速边缘

7、侧智能助理产业变革.12 建议关注.14 风险提示.14 图表目录图表目录 图表 1:针对总结、校对、邮件回复等不同任务的适配器.3 图表 2:苹果端侧模型和云端模型与其他模型的人类评估结果.4 图表 3:苹果端侧模型和云端模型与其他模型对比针对有害内容、敏感话题和事实的违规回复比例.4 图表 4:苹果端侧模型和云端模型与其他模型对比针对有害内容、敏感话题和事实的违规回复比例.5 图表 5:与 DRAM 和 CPU/GPU 缓存和寄存器相比,闪存提供了显著更高的容量,但带宽低很多。.6 图表 6:一个小的 low rank predictor 可以找出哪些中间神经元将被激活.7 图表 7:滑动

8、窗口示意图:不删除引入 DRAM 的神经元,而是保留过去 5 个令牌的活动神经元:当新 token 被处理时,只需要更改少量数据。.7 图表 8:闪存中随机读取的吞吐量随着序列块的大小和线程数的增加而增加。.8 图表 9:行列绑定示意图.9 图表 10:内存管理示意图,首先将最后的元素复制到删除的神经元中,以保持连续的内存块,然后将所需的元素堆叠到最后,这可以防止多次复制整个数据.9 图表 11:Talaria 可以用于优化机器学习模型的交互式可视化.10 图表 12:得益于 M4 芯片的极高速神经网络引擎,在 Final Cut Pro 中能轻松将 4K 视频中的主体从背景中分离。.11 图

9、表 13:GPT-4o 一边聊天一边解答手写数学问题.12 图表 14:Astra 项目演示.13 图表 15:Astra 还可以将 AI 添加到智能眼镜中.13 yUzVnMtOsRrNpNpQzRpMrMnRmOaQdN8OoMnNmOqMeRmMtMeRqQpNaQoPrQMYtRrQNZmNrM 2024 年 07 月 01 日 P.3 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 苹果发布苹果发布 Apple Intelligence,自研端,自研端+云模型能力优秀云模型能力优秀 2024 年年 6 月月 10 日,苹果在全球开发者大会上推出了日,苹果在全球开发者大会上推出了 A

10、pple Intelligence,这是一款,这是一款深度集成到深度集成到 iOS 18、iPadOS 18 和和 macOS Sequoia 中的个人智能系统。中的个人智能系统。Apple Intelligence 由多个功能强大的生成模型组成,这些模型专门用于用户的日常任务,并可即时适应用户当前的活动。Apple Intelligence 内置的基础模型针对用户体验进行了微调,例如编写和优化文本、确定通知的优先级和摘要、为与家人和朋友的对话创建有趣的图像,以及执行 App 内操作以简化跨 App 的交互。苹果官方介绍了苹果官方介绍了 Apple Intelligence 中用到的两个模型:

11、一个中用到的两个模型:一个 30 亿参数的设备端语亿参数的设备端语言模型,以及一个更大的在服务器上运行的语言模型言模型,以及一个更大的在服务器上运行的语言模型。为了保证模型的能力,为了保证模型的能力,苹果在基础模型上苹果在基础模型上增加了许多增加了许多 Adapters(适配器适配器)对具体任务)对具体任务进行了优化进行了优化。适配器是叠加在公共基础模型上的模型权重的小型集合,它们可以动态加载和交换,使基础模型能够即时专注于手头的任务。Apple Intelligence 包含一组广泛的适配器,每个适配器都针对特定功能进行了微调,这是扩展基础模型功能的有效方法。Apple Intelligen

12、ce 的适配器,针对总结、校对、邮件回复、音调调整、查询处理、友好性、紧急情况等不同具体任务都进行了优化。图表 1:针对总结、校对、邮件回复等不同任务的适配器 资料来源:苹果官网,国盛证券研究所 在多项评测中,苹果的设备端模型和服务器模型都取得了优秀的成绩:在多项评测中,苹果的设备端模型和服务器模型都取得了优秀的成绩:苹果利用一套全面的真实世界提示评估来测试通用模型的功能。这些提示在不同的难度级别上各不相同,涵盖主要类别,如头脑风暴、分类、封闭式问答、编码、提取、数学推理、开放式问答、重写、安全、总结和写作。将苹果的模型与开源模型(Phi-3、Gemma、Mistral、DBRX)和类似规模的

13、商业模型(GPT-3.5-Turbo、GPT-4-Turbo)进行比较,与大多数可比的竞争对手模型相比,苹果的模型更受人工评分师的青睐。在此基准测试中,苹果的 3B 设备端模型的性能优于 Phi-3-mini、Mistral-7B 和 Gemma-7B 等大型模型。服 2024 年 07 月 01 日 P.4 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 务器模型与 DBRX-Instruct、Mixtral-8x22B 和 GPT-3.5-Turbo 相比具有优势,同时效率很高。图表 2:苹果端侧模型和云端模型与其他模型的人类评估结果 资料来源:苹果官网,国盛证券研究所 苹果使用一组不同

14、的对抗性提示来测试模型在有害内容、敏感主题和事实性方面的性能。由人工评分员在此评估集上评估。在面对对抗性提示时苹果的设备端和服务器模型都非常强大,其违规率低于开源和商业模型。图表 3:苹果端侧模型和云端模型与其他模型对比针对有害内容、敏感话题和事实的违规回复比例 资料来源:苹果官网,国盛证券研究所 为了进一步评估模型,苹果使用指令跟踪评估(IFEval)基准测试来比较类似大小的模型的指令跟踪能力,结果表明苹果的设备端和服务器模型都比同等规模的开源和商业模型更好地遵循指令。2024 年 07 月 01 日 P.5 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 图表 4:苹果端侧模型和云端模型

15、与其他模型对比针对有害内容、敏感话题和事实的违规回复比例 资料来源:苹果官网,国盛证券研究所 2024 年 07 月 01 日 P.6 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 解决边缘侧性能问题,苹果技术储备充分解决边缘侧性能问题,苹果技术储备充分 大语言模型对计算和内存的大量要求带来了挑战,特别是对于大语言模型对计算和内存的大量要求带来了挑战,特别是对于 DRAM 容量有限的设备容量有限的设备而言。而言。2023 年年 12 月苹果发布论文月苹果发布论文LLM in a flash:Efficient Large Language Model Inference with Limi

16、ted Memory,论文提出将模型参数存储在闪存中,按需将其引入 DRAM(动态随机存取存储器,也即内存),解决了高效运行超过可用 DRAM容量的 LLM 的挑战。论文涉及了两种主要技术:窗口化(Windowing)技术通过重用以前激活的神经元来减少数据传输,行列捆绑(Row-Column Bundling)针对闪存的顺序数据访问强度进行定制,增加了从闪存读取的数据块的大小。这些方法一起作用,允许运行模型的大小是可用 DRAM 的两倍,与 CPU 和 GPU 中的直接加载方法相比,推理速度分别增加 4-5 倍和 20-25 倍。论文提到当前运行论文提到当前运行 LLM 的标准方法是将整个模型

17、加载到的标准方法是将整个模型加载到 DRAM 中进行推理。中进行推理。然而这严重限制了可以运行的最大模型大小。一个 70 亿参数的模型仅以半精度浮点格式加载参数就需要超过 14GB 的内存,超过了大多数边缘设备的能力。为了解决这一限制,论文建议将模型参数存储在闪存中,闪存至少比 DRAM 大一个数量级。然后,在推理过程中,直接从闪存加载所需的参数子集,避免了在 DRAM 中加载整个模型的需求。图表 5:与 DRAM 和 CPU/GPU 缓存和寄存器相比,闪存提供了显著更高的容量,但带宽低很多。资料来源:LLM in a flash:Efficient Large Language Model

18、Inference with Limited Memory,Keivan Alizadeh et al,国盛证券研究所 评估闪存加载策略的主要指标是延迟,它分为三个不同的组成部分:从闪存加载的 I/0 成本、用新加载的数据管理内存的开销以及推理操作的计算成本,苹果提出三方面的接近方案在内存限制下减少延迟:1)减少数据负载)减少数据负载:旨在通过加载更少的数据来减少与闪存旨在通过加载更少的数据来减少与闪存 I/0 操作相关的延迟。操作相关的延迟。论文选择仅将 transformer 的 attention 部分权重(约占模型大小的三分之一)以及Embedding 层的参数存储在内存中,可以实现更

19、高效的计算和更快的访问,从而提高推里性能,而不需要完整的模型加载。对于前馈网络(FFN)部分,只有非稀疏段会根据需要动态加载到内存中。同时,ReLU 激活函数自然会在 FFN 的中间输出中引入超过 90%的稀疏性,这减少了使用这些稀疏输出的后续层的内存占用。为了避免加载整个向上投影矩阵,论文建立了一个 low rank predictor 预测输出是 0 的神经元。2024 年 07 月 01 日 P.7 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 图表 6:一个小的 low rank predictor 可以找出哪些中间神经元将被激活 资料来源:LLM in a flash:Effic

20、ient Large Language Model Inference with Limited Memory,Keivan Alizadeh et al,国盛证券研究所 基于滑动窗口技术的神经元数据管理基于滑动窗口技术的神经元数据管理。在每一次 LLM 进行前向推理时,都需要使用模型预测 MLP 层中激活神经元的编号,并将所需的神经元所对应的权重由闪存加载到内存中,滑动窗口核心思想是:保留处理过去k个token时的激活神经元所对应的参数在内存中,并在处理当前 token 时只对部分多余的参数进行删除,缺少的参数进行加载。图表 7:滑动窗口示意图:不删除引入 DRAM 的神经元,而是保留过去

21、5 个令牌的活动神经元:当新 token 被处理时,只需要更改少量数据。资料来源:LLM in a flash:Efficient Large Language Model Inference with Limited Memory,Keivan Alizadeh et al,国盛证券研究所 2024 年 07 月 01 日 P.8 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 2)优化数据块大小)优化数据块大小:通过增加加载的数据块的大小来提高闪存吞吐量,从而减少延迟。通过增加加载的数据块的大小来提高闪存吞吐量,从而减少延迟。对于较小的块,总读取时间的很大一部分用于等待数据传输开始。这通

22、常被称为第一个字节的延迟。这种延迟大大降低了每个读取操作的总体吞吐量,因为总体测量吞吐量不仅要考虑传输开始后的传输速度,还要考虑传输开始前的延迟,这会对小读取造成不利影响。这意味着如果合并对这意味着如果合并对 FFN 矩阵的行和列的读取,可以为两个矩阵中的任何给定行矩阵的行和列的读取,可以为两个矩阵中的任何给定行/列对只支付一次延迟成本,并且可以实现更高的吞吐量。列对只支付一次延迟成本,并且可以实现更高的吞吐量。在某些情况下,阅读超过需要的内容然后丢弃是值得的,而不仅仅是严格阅读必要的部分,而是以较小的篇幅。图表 8:闪存中随机读取的吞吐量随着序列块的大小和线程数的增加而增加。资料来源:LLM

23、 in a flash:Efficient Large Language Model Inference with Limited Memory,Keivan Alizadeh et al,国盛证券研究所 行列绑定的加载方式:对于一个全连层的参数矩阵,当某个神经元被预测为激活时,需要同时读取对应两层的相应行和列为了提高读取速度,可以将两层对应的行和列拼接起来存储,如下图所示:2024 年 07 月 01 日 P.9 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 图表 9:行列绑定示意图 资料来源:LLM in a flash:Efficient Large Language Model I

24、nference with Limited Memory,Keivan Alizadeh et al,国盛证券研究所 3)高效管理加载的数据:数据加载到内存中后还简化数据管理,当为新神经元引入数据时,由于需要重写 DRAM 中的现有神经元数据,重新分配矩阵和附加新矩阵可能会导致显著的开销。为了解决这个问题,苹果采用了一种内存管理策略减少开销。图表 10:内存管理示意图,首先将最后的元素复制到删除的神经元中,以保持连续的内存块,然后将所需的元素堆叠到最后,这可以防止多次复制整个数据 资料来源:LLM in a flash:Efficient Large Language Model Infere

25、nce with Limited Memory,Keivan Alizadeh et al,国盛证券研究所 2024 年 07 月 01 日 P.10 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 在在 Apple Intelligence 的技术文档中,苹果还提到了的技术文档中,苹果还提到了使用一系列创新技术在设备上和使用一系列创新技术在设备上和私有云上对私有云上对模型模型进行优化,以提高速度和效率。进行优化,以提高速度和效率。(1)设备端模型和服务器模型都使用了分组注意力查询(grouped-query-attention)。使用共享的输入和输出词汇表来降低内存需求和推理成本。这些共享

26、嵌入张量的映射没有重复。设备端模型使用 49K 的词汇大小,而服务器模型使用 100K 的词汇大小。(2)对于设备端推理,苹果使用 low-bit palletization,这是一种关键的优化技术,可实现必要的内存、功耗和性能要求。为了保持模型质量,使用 LoRA 适配器开发了一个新框架,该框架结合了混合的 2 位和 4 位配置策略(平均每权重 3.5 位),以实现与未压缩模型相同的精度。(3)苹果还使用了交互式模型延迟和功耗分析工具 Talaria。2024 年 4 月,苹果发布Talaria:Interactively Optimizing Machine Learning Models

27、 for Efficient Inference,为了帮助从业者创建高效的机器学习模型,苹果设计并开发了 Talaria:一个模型可视化和优化系统,使开发者能够将模型编译到硬件上,以交互方式可视化模型统计数据,并模拟优化以测试对推理指标的影响。自两年前 Talaria 已经在苹果内部部署。图表 11:Talaria 可以用于优化机器学习模型的交互式可视化 资料来源:苹果官网,国盛证券研究所 通过各种优化手段,在 iPhone 15 Pro 上,Apple Intelligence 能够达到每个 token 约 0.6毫秒的首次延迟,以及每秒 30 个 token 的生成速率。在边缘侧算力上,苹

28、果同样具有强大的技术储备。在边缘侧算力上,苹果同样具有强大的技术储备。2024 年 5 月 7 日,苹果发布 M4 芯片,以第二代 3 纳米制程工艺打造,M4 芯片的极高速神经网络引擎专门用于加速 AI 任务,运算速度最高可达每秒 38 万亿次,相比 A11 仿生芯片中的初代神经网络引擎,提速最高可达惊人的 60 倍。配合 iPad OS 系统的多种 AI 功能,如可根据音频内容实时生成字幕的实时字幕、可识别视频与照片中物体的看图查询等,新款 iPad Pro 可帮助用户在设备端快速完成各类令人惊叹的 AI 任务。2024 年 07 月 01 日 P.11 请仔细阅读本报告末页声明请仔细阅读本

29、报告末页声明 图表 12:得益于 M4 芯片的极高速神经网络引擎,在 Final Cut Pro 中能轻松将 4K 视频中的主体从背景中分离。资料来源:苹果官网,国盛证券研究所 我们认为,我们认为,苹果苹果发布的发布的 Apple Intelligence 展现的丰富功能和相关技术,表现出苹果展现的丰富功能和相关技术,表现出苹果在在 AI 时代时代依然站在业界前沿。依然站在业界前沿。苹果具备从包括底层的芯片技术等硬件能力,到强大的软件能力的全方位 AI 技术储备,苹果独特的生态体系,也有利于能在各类智能终端打通不同应用与大模型的交互,有望引领边缘侧 AI 应用的创新潮流。2024 年 07 月

30、 01 日 P.12 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 科科技巨头纷纷布局,加速边缘侧智能助理产业变革技巨头纷纷布局,加速边缘侧智能助理产业变革 2024 年年 5 月月 13 日,日,OpenAI 召开春季更新发布会,推出召开春季更新发布会,推出 GPT-4o。GPT-4o(“o”代表“omni 全能”)是 OpenAI 的新旗舰型号模型,可以实时推理音频、视觉和文本。GPT-4o 可以在短短 232 毫秒内响应音频输入,平均为 320 毫秒,这类似于人工响应时间。发布会上 OpenAI 演示了 GPT-4o 一边语音聊天一边实时解答手写数学问题,以及实时阅读代码并语音指导编

31、程等能力。图表 13:GPT-4o 一边聊天一边解答手写数学问题 资料来源:OpenAI 官网,国盛证券研究所 2024 年年 5 月月 14 日,紧随日,紧随 OpenAI 的的 GPT-4o 发布后,谷歌发布后,谷歌 IO 大会上展示了其最新大会上展示了其最新的的 Astra 项目的项目的多模态理解和实时对话功能多模态理解和实时对话功能。Astra 项目以谷歌的 Gemini 模型为基础,探索了 AI 助手的未来。谷歌 IO 大会演示了 Astra 在谷歌 Pixel 手机以及智能眼镜设备上运行的效果,终端 Agent 可以接收源源不断的音频和视频输入,实时推理环境,并在对话中与测试人员就

32、其所看到的内容进行交互。2024 年 07 月 01 日 P.13 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 图表 14:Astra 项目演示 资料来源:谷歌官网,国盛证券研究所 图表 15:Astra 还可以将 AI 添加到智能眼镜中 资料来源:谷歌官网,国盛证券研究所 我们认为,各大科技巨头纷纷积极布局边缘侧我们认为,各大科技巨头纷纷积极布局边缘侧 AI,从模型到终端硬件均在不断做出创新,从模型到终端硬件均在不断做出创新探索,加速边缘侧智能助理的产业变革,有望打开各类终端软硬件的新增长空间。探索,加速边缘侧智能助理的产业变革,有望打开各类终端软硬件的新增长空间。2024 年 07

33、月 01 日 P.14 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 建建议关注议关注 1)算力侧:寒武纪、中际旭创、新易盛、工业富联、浪潮信息、海光信息、中科曙光、软通动力、协创数据、云赛智联、神州数码、高新发展、利通电子、烽火通信等。2)投资修复 信创:达梦数据、纳思达、金山办公、中科曙光、顶点软件。数字化龙头:海康威视、大华股份。医疗 IT:创业慧康、卫宁健康。车路云:金溢科技、万集科技、千方科技。3)AI 相关:海康威视、中科创达、立讯精密、鹏鼎控股、金山办公、大华股份、拓尔思、润达医疗、漫步者、云天励飞、虹软科技、昆仑万维、中广天择、同花顺、科大讯飞、万兴科技、用友网络、赛意信息

34、等。4)自动驾驶:赛力斯、江淮汽车、万马科技、长安汽车、德赛西威、中科创达、海天瑞声、北汽蓝谷、菱电电控、华依科技、经纬恒润、东风汽车、光庭信息等。5)机器人:三花智控、北特科技、鸣志电器、拓普集团、绿的谐波等。6)卫星互联网:海格通信、普天科技、创意信息、上海瀚讯等。风险提示风险提示 AI 技术迭代不及预期风险:技术迭代不及预期风险:若 AI 技术迭代不及预期,则对产业链相关公司会造成一定不利影响。经济下行超预期风险:经济下行超预期风险:若宏观经济景气度下行,固定资产投资额放缓,影响企业再投资意愿,从而影响消费者消费意愿和产业链生产意愿,对整个行业将会造成不利影响。行业竞争加剧风险:行业竞争

35、加剧风险:若相关企业加快技术迭代和应用布局,整体行业竞争程度加剧,将会对目前行业内企业的增长产生威胁。2024 年 07 月 01 日 P.15 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 免责声明免责声明 国盛证券有限责任公司(以下简称“本公司”)具有中国证监会许可的证券投资咨询业务资格。本报告仅供本公司的客户使用。本公司不会因接收人收到本报告而视其为客户。在任何情况下,本公司不对任何人因使用本报告中的任何内容所引致的任何损失负任何责任。本报告的信息均来源于本公司认为可信的公开资料,但本公司及其研究人员对该等信息的准确性及完整性不作任何保证。本报告中的资料、意见及预测仅反映本公司于发布

36、本报告当日的判断,可能会随时调整。在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。本公司不保证本报告所含信息及资料保持在最新状态,对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。本公司力求报告内容客观、公正,但本报告所载的资料、工具、意见、信息及推测只提供给客户作参考之用,不构成任何投资、法律、会计或税务的最终操作建议,本公司不就报告中的内容对最终操作建议做出任何担保。本报告中所指的投资及服务可能不适合个别客户,不构成客户私人咨询建议。投资者应当充分考虑自身特定状况,并完整理解和使用本报告内容,不应视本报告为做出投资决策的唯一因素。投资者应

37、注意,在法律许可的情况下,本公司及其本公司的关联机构可能会持有本报告中涉及的公司所发行的证券并进行交易,也可能为这些公司正在提供或争取提供投资银行、财务顾问和金融产品等各种金融服务。本报告版权归“国盛证券有限责任公司”所有。未经事先本公司书面授权,任何机构或个人不得对本报告进行任何形式的发布、复制。任何机构或个人如引用、刊发本报告,需注明出处为“国盛证券研究所”,且不得对本报告进行有悖原意的删节或修改。分析师声明分析师声明 本报告署名分析师在此声明:我们具有中国证券业协会授予的证券投资咨询执业资格或相当的专业胜任能力,本报告所表述的任何观点均精准地反映了我们对标的证券和发行人的个人看法,结论不

38、受任何第三方的授意或影响。我们所得报酬的任何部分无论是在过去、现在及将来均不会与本报告中的具体投资建议或观点有直接或间接联系。投资评级说明投资评级说明 投资建议的评级标准投资建议的评级标准 评级评级 说明说明 评级标准为报告发布日后的 6 个月内公司股价(或行业指数)相对同期基准指数的相对市场表现。其中 A 股市场以沪深 300 指数为基准;新三板市场以三板成指(针对协议转让标的)或三板做市指数(针对做市转让标的)为基准;香港市场以摩根士丹利中国指数为基准,美股市场以标普 500 指数或纳斯达克综合指数为基准。股票评级 买入 相对同期基准指数涨幅在 15%以上 增持 相对同期基准指数涨幅在 5

39、%15%之间 持有 相对同期基准指数涨幅在-5%+5%之间 减持 相对同期基准指数跌幅在 5%以上 行业评级 增持 相对同期基准指数涨幅在 10%以上 中性 相对同期基准指数涨幅在-10%+10%之间 减持 相对同期基准指数跌幅在 10%以上 国盛证券研究所国盛证券研究所 北京北京 上海上海 地址:北京市东城区永定门西滨河路 8 号院 7 楼中海地产广场东塔 7 层 邮编:100077 邮箱: 地址:上海市浦东新区南洋泾路 555 号陆家嘴金融街区 22栋 邮编:200120 电话: 邮箱: 南昌南昌 深圳深圳 地址:南昌市红谷滩新区凤凰中大道 1115 号北京银行大厦 邮编:330038 传真: 邮箱: 地址:深圳市福田区福华三路 100 号鼎和大厦 24 楼 邮编:518033 邮箱:

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(计算机行业:从关键论文看边缘AI-240701(15页).pdf)为本站 (brown) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
客服
商务合作
小程序
服务号
会员动态
会员动态 会员动态:

 wei**n_... 升级为高级VIP 187**11... 升级为至尊VIP

189**10... 升级为至尊VIP 188**51...  升级为高级VIP 

 134**52... 升级为至尊VIP  134**52...  升级为标准VIP

wei**n_...  升级为高级VIP 学**... 升级为标准VIP 

liv**vi...  升级为至尊VIP  大婷 升级为至尊VIP

wei**n_... 升级为高级VIP wei**n_...  升级为高级VIP 

微**...  升级为至尊VIP 微**... 升级为至尊VIP

 wei**n_... 升级为至尊VIP  wei**n_... 升级为至尊VIP

wei**n_...  升级为至尊VIP 战**  升级为至尊VIP 

玍子 升级为标准VIP  ken**81...  升级为标准VIP

185**71...   升级为标准VIP wei**n_... 升级为标准VIP 

微**...  升级为至尊VIP  wei**n_... 升级为至尊VIP

 138**73... 升级为高级VIP  138**36... 升级为标准VIP 

 138**56... 升级为标准VIP wei**n_... 升级为至尊VIP 

wei**n_...  升级为标准VIP   137**86... 升级为高级VIP 

  159**79... 升级为高级VIP  wei**n_...  升级为高级VIP

139**22... 升级为至尊VIP  151**96... 升级为高级VIP

wei**n_...  升级为至尊VIP  186**49... 升级为高级VIP

187**87...  升级为高级VIP wei**n_... 升级为高级VIP

wei**n_... 升级为至尊VIP  sha**01... 升级为至尊VIP

wei**n_... 升级为高级VIP   139**62...  升级为标准VIP

wei**n_...  升级为高级VIP  跟**... 升级为标准VIP

 182**26... 升级为高级VIP  wei**n_... 升级为高级VIP

136**44... 升级为高级VIP   136**89... 升级为标准VIP

wei**n_... 升级为至尊VIP  wei**n_...   升级为至尊VIP

 wei**n_... 升级为至尊VIP  wei**n_...  升级为高级VIP 

wei**n_... 升级为高级VIP  177**45...  升级为至尊VIP

  wei**n_... 升级为至尊VIP wei**n_...  升级为至尊VIP 

微**... 升级为标准VIP  wei**n_... 升级为标准VIP

 wei**n_... 升级为标准VIP 139**16... 升级为至尊VIP 

wei**n_...  升级为标准VIP   wei**n_... 升级为高级VIP

182**00... 升级为至尊VIP wei**n_...  升级为高级VIP

wei**n_... 升级为高级VIP   wei**n_...  升级为标准VIP

133**67... 升级为至尊VIP wei**n_... 升级为至尊VIP 

柯平 升级为高级VIP  shi**ey...   升级为高级VIP

153**71...  升级为至尊VIP  132**42... 升级为高级VIP

wei**n_... 升级为至尊VIP  178**35... 升级为至尊VIP  

 wei**n_... 升级为高级VIP wei**n_... 升级为至尊VIP 

wei**n_...  升级为高级VIP wei**n_...   升级为高级VIP

  133**95... 升级为高级VIP 188**50... 升级为高级VIP 

138**47...  升级为高级VIP   187**70... 升级为高级VIP

 Tom**12... 升级为至尊VIP  微**...  升级为至尊VIP 

 wei**n_... 升级为至尊VIP 156**93...  升级为至尊VIP

wei**n_... 升级为高级VIP  wei**n_...  升级为至尊VIP

wei**n_...  升级为标准VIP  小敏 升级为高级VIP

 hak**a9... 升级为至尊VIP   185**56... 升级为高级VIP

 156**93... 升级为标准VIP wei**n_... 升级为至尊VIP

wei**n_... 升级为至尊VIP  Br**e有...  升级为至尊VIP

  wei**n_... 升级为标准VIP wei**n_...  升级为高级VIP

wei**n_... 升级为至尊VIP   156**20...  升级为至尊VIP