上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

通信行业AI深度洞察系列报告(一):为什么Scaling Laws重要?-240227(15页).pdf

编号:154900  PDF  DOCX 15页 1.96MB 下载积分:VIP专享
下载报告请您先登录!

通信行业AI深度洞察系列报告(一):为什么Scaling Laws重要?-240227(15页).pdf

1、 请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 行行业业 研研 究究 行行业业深深度度研研究究报报告告 证券研究报告证券研究报告 通信通信 推荐推荐 (维持维持 )重点公司重点公司 重点公司 评级 中际旭创 增持 天孚通信 增持 新易盛 增持 中瓷电子 增持 鼎通科技 增持 来源:兴业证券经济与金融研究院 相关报告相关报告 【兴证通信】提前到来的 1.6T时代2024-02-01 【兴证通信】800G 光模块:AI算力底座2023-06-06 分析师:分析师:章林章林 S02 代小笛代小笛 S01 仇新宇仇新宇 S01

2、90523070005 A th 研究助理:研究助理:许梓豪 投资要点投资要点 Scaling Laws:大模型训练的重要指导法则,规模越大模型效果越优。:大模型训练的重要指导法则,规模越大模型效果越优。Scaling Laws 是最早由 Open AI 提出的大模型开发的黄金经验法则,核心在于得到模型参数规模、模型训练数据量以及模型计算资源三因素之间关系。实验结果显示,在 transformer 架构下,如果不断扩大模型三因素规模,得到的模型效果越优,算力规模增大和升级仍是通往 AGI 的关键。Scaling Laws:模型三因素之间存在幂律关系,可对模型进行效果预测,同时:模型三因素之间存

3、在幂律关系,可对模型进行效果预测,同时三因素之间存在最优解。三因素之间存在最优解。OpenAI 在论文Scaling Laws for Neural Language Models中发现 AI 大语言模型性能的三个主要因素(即模型大小、数据集大小和训练计算量)存在幂律关系,幂律关系意味着可通过对数转换变成线性关系,从而实现模型建模,达到预训练模型对模型效果的预测作用,从而为模型实际训练提供重要参考和指导。同时 DeepMind 对于 Scaling Laws 的进一步研究发现,在设定条件下,模型三因素之间存在最优解。随着训练规模不断增大,大模型会出现涌现特质,且该现象具备普遍性。随着训练规模不

4、断增大,大模型会出现涌现特质,且该现象具备普遍性。“涌现”能力(Emergent Ability)主要指的是当模型参数规模的增大突破某一阈值时,某些能力突然巨大提升。通过实验数据发现,当不断增加训练规模,大模型会出现涌现特质,表现为理解能力、解决问题等方面能力的突然提升。从大语言模型到多模态模型,从大语言模型到多模态模型,Scaling Laws 已经得到充分验证。已经得到充分验证。1)GPT-4:通过基于 Scaling Laws 得到的幂律关系等结论,结合各种优化方法,OpenAI能够从较小计算量训练的模型来可靠预测GPT-4某些方面性能;2)Baichuan2:当将大语言模型训练数据库变

5、为中文时,基于 Scaling Laws 的搭建的预测模型,精准实现了对于最终训练模型的效果预测;3)Sora:作为多模态 AI 模型(文生视频),Sora 模型基于 transformer 架构,通过训练同样获得了涌现特质,证明 Scaling Laws 在多模态领域依然有效。投资逻辑及标的推荐:投资逻辑及标的推荐:当前大模型仍处于发展前期,尤其是多模态模型还处在发展早期,基于 Scaling Laws 的启示,为了达到最优的模型效果,当我们不断增加模型参数规模时,所需要配置的算力规模仍需要等比例提升,推动算力硬件需求长期增长。通往 AGI 的进程中,算力仍然是主要掣肘,GPU 及其网络设备

6、仍需持续升级换代。算力硬件基础设施一般包括服务器、交换机、光模块三个重点环节,对应的产业链相关标的值得关注。重点推荐:中际旭创、天孚通信、新易盛;建议关注:鼎通科技、中瓷电子、太辰光、罗博特科、源杰科技、仕佳光子、博创科技、光库科技、光迅科技、华工科技等。风险提示:风险提示:大模型训练架构发生变化,导致大模型训练架构发生变化,导致 Scaling Laws 结论失效的风险;结论失效的风险;贸易摩擦加剧;贸易摩擦加剧;AI 应用进度不及预期。应用进度不及预期。titl AIAI 深度洞察系列报告(一):为什么深度洞察系列报告(一):为什么 Scaling LawsScaling Laws 重要?

7、重要?2024 年年 02 月月 27 日日 请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -2-行业深度研究报告行业深度研究报告 目目 录录 1、Scaling Laws:AI 大模型领域关键指导法则.-3-1.1、Scaling Laws 结论之一:模型扩大规模,性能更优.-3-1.2、Scaling Laws 结论之二:模型三因素之间存在幂律关系.-5-1.3、Scaling Laws 结论之三:模型三因素之间存在最优解.-5-1.4、大模型训练规模提升后可实现“涌现”能力.-7-2、从大语言模型到多模态,Scaling Laws 持续被验证.-8-2.1

8、、GPT-4:Scaling Laws 实现对于模型效果预测.-8-2.2、百川模型:中文 LLM 模型同样适用于 Scaling Laws.-9-2.3、Sora:多模态验证,涌现特质出现.-10-3、投资逻辑及标的推荐.-12-4、风险提示.-14-图目录图目录 图 1、机器学习基本原理.-3-图 2、模型训练需要考虑的三方因素.-4-图 3、模型规模越大,大模型性能越好.-4-图 4、模型参数规模贡献量随计算量增加而增加.-5-图 5、给定计算资源下,模型参数量和训练量存在最优解.-6-图 6、最优模型状态下,参数的提升对应的算力也要持续提升.-7-图 7、随着训练规模提升,模型会出现“

9、涌现”能力.-8-图 8、在增强提示方式下,复杂任务的效果随模型计算量提升而提升.-8-图 9、基于 Scaling Laws 的小模型精准预测 GPT-4 最终损失.-9-图 10、基于 Scaling Laws 的小模型精准预测 GPT-4 问题性能.-9-图 11、Baichuan2 模型采用的各类训练数据分布.-10-图 12、基于 Scaling Laws 的小模型精准预测 Baichuan2 的损失.-10-图 13、Sora 视频生成效果举例.-10-图 14、增加 transformer 规模+减少 Patch 大小,模型效果更优.-11-图 15、Sora 赋予 DALL-E

10、 图像生命力(动态).-12-表目录表目录 表 1、算力硬件环节产业链受益标的.-12-表 2、当前估值处于历史较低位置,未来增长确定性强(截至 2024 年 2 月 23 日).-13-RU1WZZAYOZAUSUbR8Q7NnPoOoMmQlOqQmOfQnPzRbRmNrQuOrQwPMYmOsM 请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -3-行业深度研究报告行业深度研究报告 报告正文报告正文 1、Scaling Laws:AI 大模型领域关键指导法则大模型领域关键指导法则 Scaling Laws(缩放法则):主要用于探索在大模型训练过程中,模型参

11、数量、数据集和计算量之间规律,最早由 OpenAI 在 2020 年提出。Scaling Laws 的出现为当下 AI 大模型的训练提供了重要指导。对于基于 transformer 的大模型而言,在训练过程中存在以下重要结论Scaling Laws:模型规模要大:即增加模型参数量、数据集和计算量,就可以得到性能更优的模型效果。模型参数量、数据集以及计算量之间存在幂律关系,可以通过建模拟合参数,在较小的模型投入情况下,对实际要训练的模型效果提前预测,达到指导作用。当模型规模达到一个阈值时,模型会出现涌现特质未预期到的新能力,推动模型性能提升。1.11.1、Scaling LawsScaling

12、Laws 结论之一:模型扩大规模,性能更优结论之一:模型扩大规模,性能更优 大模型:是机器学习的一个分支,行业取得明显进展。大模型:是机器学习的一个分支,行业取得明显进展。大语言模型本质上是机器学习的一个分支,属于机器学习领域下面的深度学习,尝试模拟人脑的工作方式,创建人工神经网络来处理数据,最终利用训练得到模型对未知数据进行预测。2023年年初,OpenAI 的 ChatGPT 大模型的出现,证明当下大模型技术能力的使得该模型能逐步开始表现出类似人脑的思考和对话方式。图图 1 1、机器学习基本原理机器学习基本原理 资料来源:阿里云,兴业证券经济与金融研究院整理 Scaling Laws 为大

13、模型预训练提供关键指导。为大模型预训练提供关键指导。在 OpenAI 大模型的带动下,全球开始探索大语言模型训练和应用。在进行大模型训练的时候,我们期望利用数据训练使得大模型能够学习数据背后呈现的规律,从而达到更智能的效果。在训练大模型时候,三个参数成为需要考虑的重要方面,分别是模型训练数据大小、模型参数多少和训练成本(时间或者硬件成本)。Scaling Laws 的目的在于通过探索 请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -4-行业深度研究报告行业深度研究报告 三因素之间的关系,为大模型预训练提供重要指导。图图 2 2、模型训练需要考虑的三方因素、模型训

14、练需要考虑的三方因素 资料来源:神州问学,兴业证券经济与金融研究院整理 Scaling Laws 证明:大模型如果想到达到性能优化,模型的规模需要不断提升。2020 年 OpenAI 团队发表论文Scaling Laws for Neural Language Models,通过控制变量法,OpenAI 发现,当计算量增加、模型训练数量增加、模型参数增加均可以达到减少模型损失,增加大模型性能的效果即模型越大,效果越好。图图 3 3、模型、模型规模越大,大模型性能越好规模越大,大模型性能越好 资料来源:Scaling Laws for Neural Language Models,兴业证券经济与

15、金融研究院整理 同时当计算量不再成为限制,增加模型参数规模对模型效果提升贡献量越明显。同时当计算量不再成为限制,增加模型参数规模对模型效果提升贡献量越明显。根据 OpenAI 论文,在运算量的增加过程中,参数规模的增加可以起到更关键的作用。在给定的计算量且参数规模较小时,增大模型参数量对于模型效果的贡献,远优于增加数据量和训练步数。这个结论为后续业内不断增加模型参数量来这个结论为后续业内不断增加模型参数量来训练大模型提供了规律指导。训练大模型提供了规律指导。请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -5-行业深度研究报告行业深度研究报告 图图 4 4、模型参

16、数规模贡献量随计算量增加而增加、模型参数规模贡献量随计算量增加而增加 资料来源:Scaling Laws for Neural Language Models,兴业证券经济与金融研究院整理 1.21.2、Scaling LawsScaling Laws 结论之二:模型三因素之间存在幂律关系结论之二:模型三因素之间存在幂律关系 模型三因素之间存在幂律关系。模型三因素之间存在幂律关系。2020 年 OpenAI 团队发表论文Scaling Laws for Neural Language Models,在该论文中首次提出模拟神经语言模型的模型性能与三个主要因素(即模型大小、数据集大小和训练计算量)

17、的幂律关系。该论文中用模型在测试集上的交叉熵损失 L 代表模型性能,N 代表模型参数量大小,D 代表训练模型的数据大小,C 代表模型计算量)实验结果发现:1)使用 Transformer 的解码器结构训练模型时,关于 C、D、N 之间存在近似计算关系:C6DN。2)大模型训练所需要的三个核心因素存在幂律关系)大模型训练所需要的三个核心因素存在幂律关系,而这种幂律关系通过变化可以得到线性关系,因而可以直观判断出模型参数、训练数据、计算量对于模型效果的影响程度。1.1.3 3、Scaling LawsScaling Laws 结论之三:模型三因素之间存在最优解结论之三:模型三因素之间存在最优解 给

18、定计算资源的情况下,模型参数量和模型训练数据量存在最优解。2022 年谷歌DeepMind 团队发表了论文Training Compute-Optimal Large Language Models,进一步解析了计算资源、模型参数量和模型训练数据量之间关系,发现三者之间 请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -6-行业深度研究报告行业深度研究报告 存在最优解。在此之前,大部分的研究工作主要集中在扩大模型参数规模,并未增加模型训练数据规模。DeepMind 训练用不同规模的数据(5B 到 500B tokens)训练超过 400 个不同大小模型,发现模型参

19、数规模和训练数据规模需要同比增加。角度一:该论文中对于模型性能 L 的衡量采用损失函数(Loss),函数结果越小证明模型性能最优。训练损失 L 是模型参数 N 和计算量 D 的函数。同时发现:固定计算量(D),改变模型参数大小,存在最优的模型训练结果,且在最优解的基础下,计算量越大需要的模型参数也是等比例扩大。图图 5 5、给定计算资源下,模型参数量和训练量存在最优解、给定计算资源下,模型参数量和训练量存在最优解 资料来源:Training Compute-Optimal Large Language Models,兴业证券经济与金融研究院整理 角度二:基于最优解结论,拟合损失函数,可得到同样

20、类似结论,实验分析显示,为了得到效果最好的大模型(Loss 最小),模型大小(model size)和计算量(FLOPS)之间存在最优解,且在最优模型状态下,模型参数越大需要的算力也会等比例增加。请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -7-行业深度研究报告行业深度研究报告 图图 6 6、最优模型状态下,参数的提升对应的算力也要持续提升、最优模型状态下,参数的提升对应的算力也要持续提升 资料来源:Training Compute-Optimal Large Language Models,兴业证券经济与金融研究院整理 1.1.4 4、大模型训练规模提升后可

21、实现“涌现”能力、大模型训练规模提升后可实现“涌现”能力 “涌现”能力:大模型从量变走向质变。“涌现”能力:大模型从量变走向质变。“涌现”能力(Emergent Ability)主要指的是当模型参数规模的增大突破某一阈值时,某些能力突然巨大提升,即表现为大模型的能力从量变走向质变。2022 年 6 月,Google 联合斯坦福大学发表了论文Emergent Abilities of Large Language Models,该论文中对于“涌现能力”的定该论文中对于“涌现能力”的定义为:如果一种能力不存在于较小的模型中,而存在于较大的模型中,那么这种义为:如果一种能力不存在于较小的模型中,而存

22、在于较大的模型中,那么这种能力就是涌现出来的。能力就是涌现出来的。训练量提升,模型就会呈现出“涌现”能力,且该能力的出现具有普遍性。训练量提升,模型就会呈现出“涌现”能力,且该能力的出现具有普遍性。图 7展示了测试大模型的三种能力:运算能力、参加大学水平的考试(多任务 NLU),以及识别一个词的语境含义的能力。在每种情况下,语言模型最初表现很差,并且与模型大小基本无关,但当模型规模达到一个阈值时,语言模型的表现能力突然提高。图 8 展示了各种增强提示的方法对于模型的作用效果,具体的任务类型包括数学问题、指令恢复、数值运算和模型校准,在一定的规模以上,模型的能力才随着模型的规模突然提高;在这个阈

23、值以下的现象则不太明显。该论文发现大语言模型的“涌现”能力是一种普遍现象而非特例,但目前来看,语言模型的能力和模型大小的关系并没有明显的线性关系。请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -8-行业深度研究报告行业深度研究报告 图图 7 7、随着训练规模提升,模型会出现“涌现”能力、随着训练规模提升,模型会出现“涌现”能力 图图 8 8、在增强提示方式下,复杂任务的效果随模型计、在增强提示方式下,复杂任务的效果随模型计算量提升而提升算量提升而提升 资料来源:Emergent Abilities of Large Language Models,兴业证券经济与

24、金融研究院整理 资料来源:Emergent Abilities of Large Language Models,兴业证券经济与金融研究院整理 2、从大语言模型到多模态,、从大语言模型到多模态,Scaling Laws 持续被验证持续被验证 2 2.1 1、GPTGPT-4 4:Scaling LawsScaling Laws 实现对于模型效果预测实现对于模型效果预测 Scaling Laws 的经验结论在的经验结论在 GPT-4 大模型的搭建中起到了重要作大模型的搭建中起到了重要作用。2023 年 3 月OpenAI 发布了 GPT-4 项目技术报告GPT-4 Technical Repor

25、t,对于 GPT-4 这种规模的大模型,进行广泛的特定模型调整可行性较低,因此对于模型的预测显得非常重要。通过基于 Scaling Laws 得到的结论和各种优化方法,OpenAI 能够从较小计算量训练的模型来可靠预测 GPT-4 的某些方面性能。Scaling Laws 结论:幂律关系。由于当不受其他两个因素的制约时,模型性能与每个单独的因素都有幂律关系。因此,当这种幂率关系出现时,我们可以提前对模型的性能进行预测。发现一:利用幂律规律搭建模型损失函数,在计算量最多比 GPT4 少 1000 倍的情况下,拟合比例高度准确预测了 GPT-4 的最终损失。发现二:在 23 个代码问题的性能预测上

26、,可以通过比 GPT-4 计算量最多少 1000倍的模型预测得到。请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -9-行业深度研究报告行业深度研究报告 图图 9 9、基于、基于 Scaling LawsScaling Laws 的小模型精准预测的小模型精准预测 GPTGPT-4 4最终损失最终损失 图图 1010、基于、基于 Scaling LawsScaling Laws 的小模型精准预测的小模型精准预测 GPTGPT-4 4问题性能问题性能 资料来源:GPT-4 Technical Report,兴业证券经济与金融研究院整理 资料来源:GPT-4 Techn

27、ical Report,兴业证券经济与金融研究院整理 2 2.2 2、百川模型:中文、百川模型:中文 LLMLLM 模型同样适用于模型同样适用于 Scaling LawsScaling Laws 2023 年 9 月百川发布了大模型报告Baichuan 2:Open Large-scale Language Models ,Baichuan 2 是一系列大规模的多语言语言模型,包含 70 亿和 130 亿参数两个模型,采用 transformer 架构。在训练数据方面,作者选择从互联网网页、书籍、论文、代码库等多种来源获取,确保了数据的广泛性。验证过程:建立 Scaling Laws 规律对应

28、的模型损失函数。为了搭建属于自己模型的 Scaling Laws,作者启动了一系列模型大小的训练,从 1000 万到 30 亿参数,规模从最终模型的 1/1000 到 1/10 不等,采用 OpenAI 论文中提到的建模公式,针对这一系列模型呈现的结果最终确立公式里的参数。最终拟合的 Scaling Laws 的公式,准确预测了 Baichuan 2 的最终损失。中文transformer 架构下的大语言模型,Scaling Laws 依然生效。请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -10-行业深度研究报告行业深度研究报告 图图 1111、Baichua

29、n2Baichuan2 模型采用的各类训练数据分布模型采用的各类训练数据分布 图图 1212、基于、基于 Scaling LawsScaling Laws 的小模型精准预测的小模型精准预测Baichuan2Baichuan2 的损失的损失 资料来源:Baichuan 2:Open Large-scale Language Models ,兴业证券经济与金融研究院整理 资料来源:Baichuan 2:Open Large-scale Language Models ,兴业证券经济与金融研究院整理 2 2.3 3、SoraSora:多模态验证,涌现特质出现:多模态验证,涌现特质出现 Sora:作为

30、首个作为首个 AI 视频模型,基于视频模型,基于 transformer 架构,应用效果亮眼架构,应用效果亮眼。2024 年初OpenAI 发布全球首个 AI 视频模型 Sora,Sora 是直接基于视频数据,基于类似大语言模型方式进行训练的文本转视频模型。从应用角度,Sora 具备生成一分钟高质量视频的能力,其中包括一些精细复杂的场景、角色表情以及复杂的镜头运动。生成的视频时长和效果有明显优于此前发布的其他模型(如 Pika Labs、Meta 的Emu Video、Runway 的 Gen-2)。图图 1313、SoraSora 视频生成效果举例视频生成效果举例 资料来源:OpenAI,兴

31、业证券经济与金融研究院整理 Sora 模型的落地证明了以下几个重要结论:1)transformer 思想仍然有效;2)Scaling Laws 依旧具备指导意义,视频模型产生了涌现能力。请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -11-行业深度研究报告行业深度研究报告 1)训练思路仍然基于 transformer。Sora 本身搭建的思路仍是 transformer 架构(借鉴 GPT 的训练架构),区别在于是一个扩散模型,即 diffusion transformer,类比在大语言模型训练时采用的基本单位 tokens,在处理图像和视频数据时,Sora 的

32、基本单位是 Patches(图像和视频分割的最小单元)。证明证明 transformer 对于语言对于语言的理解能力可以复制在多模态数据集上。的理解能力可以复制在多模态数据集上。此前在论文Scalable Diffusion Models with Transformers中得到过结论,当增加模型规模,减少 Patch 尺寸,生成的图像效果会越来越好。图图 1414、增加、增加 transformertransformer 规模规模+减少减少 PatchPatch 大小,模型效果更优大小,模型效果更优 资料来源:Scalable Diffusion Models with Transforme

33、rs,兴业证券经济与金融研究院整理 2)Scaling Law 作用下,Sora 模型呈现涌现特质。在大规模训练后,Sora 具备了涌现的特质产生新能力。具体而言,Sora 的新能力指的是三维一致性,表现为 Sora 能够生成动态视角的视频,同时随着视角的移动和旋转,人物及场景元素在三维空间中仍然保持一致的运动状态。决定了生成视频的真实感。决定了生成视频的真实感。请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -12-行业深度研究报告行业深度研究报告 图图 1515、SoraSora 赋予赋予 DALLDALL-E E 图像生命力(动态)图像生命力(动态)资料来源

34、:OpenAI,兴业证券经济与金融研究院整理 3、投资逻辑及标的推荐、投资逻辑及标的推荐 当前大模型仍处于发展前期,基于 Scaling Laws 的启示,为了达到最优的模型效果,当我们不断增加模型参数规模时,所需要配置的算力规模仍需要等比例提升,推动算力硬件需求长期增长。通往 AGI 的进程中,算力仍然是主要掣肘,GPU 及其网络设备仍需持续升级换代。算力硬件基础设施一般包括服务器、交换机、光模块三个重点环节,对应的产业链相关标的值得关注。表表 1 1、算力硬件环节产业链受益标的、算力硬件环节产业链受益标的 光芯片 Lumentum(美股)、Coherent(美股)、源杰科技源杰科技、海信宽

35、带(未上市)、长光华芯、光迅科技、仕佳光子等 光器件 Fabrinet(美股)、天孚通信天孚通信、腾景科技等 光模块/光引擎 Coherent(美股)、中际旭创、天孚通信、新易盛中际旭创、天孚通信、新易盛、光迅科技、剑桥科技、华工科技、联特科技等 DSP/Serdes Marvell(美股)、博通(美股)、Credo(美股)交换机 博通(美股)、Marvell(美股)、盛科通信 硅光设备 罗博特科 薄膜铌酸锂 光库科技、铌奥光电(未上市)连接器 鼎通科技、太辰光、博创科技 电子陶瓷 中瓷电子 TEC 芯片 富信科技 资料来源:Wind,兴业证券经济与金融研究院整理 请务必阅读正文之后的信息披露

36、和重要声明请务必阅读正文之后的信息披露和重要声明 -13-行业深度研究报告行业深度研究报告 中际旭创中际旭创:公司作为全球光模块领先厂商之一,目前 800G 为代表的高速光模块已经实现批量出货,泰国工厂扩建夯实 800G 放量基础,公司有望持续高份额出货并打开业绩上修空间。天孚通信天孚通信:AI 客户持续上修总需求水平,叠加公司无源器件和光引擎 800G 产品份额持续提升,公司积极加速产能扩张并进行全球化布局,同时积极进行1.6T 高速光引擎的研发突破,未来仍具备较大成长空间。新易盛新易盛:高增长预期下公司加速产能扩张,有望受益 2024 年大客户 400G 需求爆发,800G 产品有望与头部

37、客户形成良好合作关系并于 2025 年开始加速放量。中瓷电子中瓷电子:半导体精密陶瓷零部件持续突破,高速光模块陶瓷外壳加速放量;GaN PA 份额稳步提升,募投卫星通信、6G 领域,未来成长空间广阔;SiC 主驱参数验证通过,批量出货在即。鼎通科技鼎通科技:通信方面,公司 112G 产品放量确定性强,目前客户订单预期已经有明显好转,马来西亚产能布局进入收获期。汽车方面,汽车连接器客户和产品开拓顺利,预计 2025 年将再上台阶。表表 2 2、当前估值处于历史较低位置,未来增长确定性强、当前估值处于历史较低位置,未来增长确定性强(截至(截至 2 2024024 年年 2 2 月月 2 23 3

38、日日)代码代码 公司公司 投资评级投资评级 收盘价收盘价(元元)市值市值(亿元亿元)ESP(元)(元)P/E 2022A 2023E 2024E 2025E 2022A 2023E 2024E 2025E 300308 中际旭创 增持 147.73 1186 1.52 2.68 6.36 8.73 97 55 23 17 300394 天孚通信 增持 119.42 472 1.02 1.67 3.04 4.25 117 72 39 28 300502 新易盛 增持 59.96 426 1.27 0.92 1.85 2.58 47 65 32 23 003031 中瓷电子 增持 67.05 21

39、6 0.46 1.55 2.55 3.51 145 43 26 19 688668 鼎通科技 增持 40.67 40 1.70 0.85 3.01 3.80 24 48 14 11 资料来源:Wind,兴业证券经济与金融研究院整理 请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -14-行业深度研究报告行业深度研究报告 4、风险提示、风险提示 1、大模型训练架构发生变化,导致、大模型训练架构发生变化,导致 Scaling Laws 结论失效的风险。结论失效的风险。当前 Scaling Laws 的各类结论适用的范围为基于 Transformer 架构的大模型(LL

40、M 或者多模态),如果后续 AI 大模型训练采用别的架构,可能会导致当前得到的各类结论存在失效的可能。2、贸易摩擦加剧。、贸易摩擦加剧。高端光电芯片需从国外厂商购买,光模块公司大客户为海外云厂商。若贸易摩擦加剧,影响行业上游芯片采购和下游客户订单,对公司产生不利影响。3、AI 应用进度不及预期。应用进度不及预期。光模块的长期增量需求建立在 AI 发展之上,除了大模型本身带来的训练需求,AI 应用进展是更长维度的光模块需求增长前提。如果 AI 应用进度不及预期,可能会对光模块行业长期需求产生影响。请务必阅读正文之后的信息披露和重要声明请务必阅读正文之后的信息披露和重要声明 -15-行业深度研究报

41、告行业深度研究报告 分析师声明分析师声明 本人具有中国证券业协会授予的证券投资咨询执业资格并登记为证券分析师,以勤勉的职业态度,独立、客观地出具本报告。本报告清晰准确地反映了本人的研究观点。本人不曾因,不因,也将不会因本报告中的具体推荐意见或观点而直接或间接收到任何形式的补偿。投资评级说明投资评级说明 投资建议的评级标准投资建议的评级标准 类别类别 评级评级 说明说明 报告中投资建议所涉及的评级分为股票评级和行业评级(另有说明的除外)。评级标准为报告发布日后的12个月内公司股价(或行业指数)相对同期相关证券市场代表性指数的涨跌幅。其中:沪深两市以沪深300指数为基准;北交所市场以北证50指数为

42、基准;新三板市场以三板成指为基准;香港市场以恒生指数为基准;美国市场以标普500或纳斯达克综合指数为基准。股票评级 买入 相对同期相关证券市场代表性指数涨幅大于15%增持 相对同期相关证券市场代表性指数涨幅在5%15%之间 中性 相对同期相关证券市场代表性指数涨幅在-5%5%之间 减持 相对同期相关证券市场代表性指数涨幅小于-5%无评级 由于我们无法获取必要的资料,或者公司面临无法预见结果的重大不确定性事件,或者其他原因,致使我们无法给出明确的投资评级 行业评级 推荐 相对表现优于同期相关证券市场代表性指数 中性 相对表现与同期相关证券市场代表性指数持平 回避 相对表现弱于同期相关证券市场代表

43、性指数 信息披露信息披露 本公司在知晓的范围内履行信息披露义务。客户可登录 内幕交易防控栏内查询静默期安排和关联公司持股情况。使用本研究报告的风险提示及法律声明使用本研究报告的风险提示及法律声明 兴业证券股份有限公司经中国证券监督管理委员会批准,已具备证券投资咨询业务资格。,本公司不会因接收人收到本报告而视其为客户。本报告中的信息、意见等均仅供客户参考,不构成所述证券买卖的出价或征价邀请或要约,投资者自主作出投资决策并自行承担投资风险,任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效,任何有关本报告的摘要或节选都不代表本报告正式完整的观点,一切须以本公司向客户发布的本报告

44、完整版本为准。该等信息、意见并未考虑到获取本报告人员的具体投资目的、财务状况以及特定需求,在任何时候均不构成对任何人的个人推荐。客户应当对本报告中的信息和意见进行独立评估,并应同时考量各自的投资目的、财务状况和特定需求,必要时就法律、商业、财务、税收等方面咨询专家的意见。对依据或者使用本报告所造成的一切后果,本公司及/或其关联人员均不承担任何法律责任。本报告所载资料的来源被认为是可靠的,但本公司不保证其准确性或完整性,也不保证所包含的信息和建议不会发生任何变更。本公司并不对使用本报告所包含的材料产生的任何直接或间接损失或与此相关的其他任何损失承担任何责任。本报告所载的资料、意见及推测仅反映本公

45、司于发布本报告当日的判断,本报告所指的证券或投资标的的价格、价值及投资收入可升可跌,过往表现不应作为日后的表现依据;在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告;本公司不保证本报告所含信息保持在最新状态。同时,本公司对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。除非另行说明,本报告中所引用的关于业绩的数据代表过往表现。过往的业绩表现亦不应作为日后回报的预示。我们不承诺也不保证,任何所预示的回报会得以实现。分析中所做的回报预测可能是基于相应的假设。任何假设的变化可能会显著地影响所预测的回报。本公司的销售人员、交易人员以及其他专业人士可能会

46、依据不同假设和标准、采用不同的分析方法而口头或书面发表与本报告意见及建议不一致的市场评论和/或交易观点。本公司没有将此意见及建议向报告所有接收者进行更新的义务。本公司的资产管理部门、自营部门以及其他投资业务部门可能独立做出与本报告中的意见或建议不一致的投资决策。本报告并非针对或意图发送予或为任何就发送、发布、可得到或使用此报告而使兴业证券股份有限公司及其关联子公司等违反当地的法律或法规或可致使兴业证券股份有限公司受制于相关法律或法规的任何地区、国家或其他管辖区域的公民或居民,包括但不限于美国及美国公民(1934 年美国证券交易所第 15a-6 条例定义为本主要美国机构投资者除外)。本报告的版权

47、归本公司所有。本公司对本报告保留一切权利。除非另有书面显示,否则本报告中的所有材料的版权均属本公司。未经本公司事先书面授权,本报告的任何部分均不得以任何方式制作任何形式的拷贝、复印件或复制品,或再次分发给任何其他人,或以任何侵犯本公司版权的其他方式使用。未经授权的转载,本公司不承担任何转载责任。特别声明特别声明 在法律许可的情况下,兴业证券股份有限公司可能会持有本报告中提及公司所发行的证券头寸并进行交易,也可能为这些公司提供或争取提供投资银行业务服务。因此,投资者应当考虑到兴业证券股份有限公司及/或其相关人员可能存在影响本报告观点客观性的潜在利益冲突。投资者请勿将本报告视为投资或其他决定的唯一信赖依据。兴业证券研究兴业证券研究 上上 海海 北北 京京 深深 圳圳 地址:上海浦东新区长柳路36号兴业证券大厦15层 邮编:200135 邮箱: 地址:北京市朝阳区建国门大街甲6号SK大厦32层01-08单元 邮编:100020 邮箱: 地址:深圳市福田区皇岗路5001号深业上城T2座52楼 邮编:518035 邮箱:

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(通信行业AI深度洞察系列报告(一):为什么Scaling Laws重要?-240227(15页).pdf)为本站 (M-bing) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
相关报告
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部