上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

英伟达-美股公司-GTC 2023跟踪报告:AI的iPhone时刻到来英伟达全力加速生成式AI发展-230323(24页).pdf

编号:119587 PDF 24页 1.86MB 下载积分:VIP专享
下载报告请您先登录!

英伟达-美股公司-GTC 2023跟踪报告:AI的iPhone时刻到来英伟达全力加速生成式AI发展-230323(24页).pdf

1、 敬请阅读末页的重要说明 证券研究报告|行业简评报告 2023 年 03 月 23 日 英伟达英伟达 GTC 2023 跟踪报告跟踪报告 TMT 及中小盘/电子 事件:事件:英伟达 GTC 开发者大会于 3 月 20-23 日举办,英伟达 CEO 黄仁勋于 3 月 21日发表主题演讲,介绍 AI 的最新进展,以及 AI 技术如何影响每个行业和日常生活。综合演讲及材料信息,总结要点如下:评论:评论:1、Grace 打造超打造超低功耗计算利器,低功耗计算利器,H100 助力助力 DGX 创造创造 AI 的的 iPhone 时刻时刻。Grace CPU:擅长单线程执行和内存处理,包含 72 个 Ar

2、m 核心,可提供 3.2TB/s的带宽,Grace Superchip 通过 900GB/s 的接口连接两个 CPU,可提供 1TB/s的带宽,是目前系统的 2.5 倍,功耗仅是其 1/8,采用风冷即可,适合云计算和科学计算应用。DGX(AI 超级计算机):超级计算机):LLM 实现突破的引擎,创造 AI 的 iPhone时刻,配备 8 个 H100 GPU 模组,通过 NVLINK Switch 相连,H100 配备Transformer 引擎,旨在处理 ChatGPT 模型。四大推理四大推理芯片芯片平台平台:1)L4:针对 AI 视频工作负载,优化视频编解码、内容审核和通话功能;2)L40

3、:针对Omniverse、图形渲染以及文本转图像和文本转视频等生成式 AI;3)Hopper GPU:配备双 GPU NVLINK 的 PCIE H100,目前云上唯一可以处理 ChatGPT的 GPU 是 A100,一台搭载 4 对 H100 及双 NVLINK 的标准服务器速度要快 10倍,H100 可将 LLM 的处理成本降低一个数量级;4)Grace Hopper:新的超级芯片,通过 900GB/s 的芯片接口连接 Grace CPU 和 Hopper GPU,适合处理大型数据集,例如推荐系统和 LLM 的 AI 数据库。2、完善多应用领域加速库建设,台积电预计完善多应用领域加速库建设

4、,台积电预计 23M6 将对将对 cuLitho 进行生产认证进行生产认证。加速库:加速库:加速计算的核心加速计算的核心。cuQuantum 对量子计算机进行加速;Spark-RAPIDS可加速云数据处理平台;cuOpt 用于运筹学领域解决组合优化问题;CV-CUDA和 VPF 是用于计算机视觉和视频处理的云规模加速库;Parabricks 可用于基因组分析;cuLitho 计算光刻库,与台积电、ASML 和 Synopsys 合作将计算光刻加速了 40 倍以上,台积电在 500 个 DGX H100 系统上将功率从 35MW 降至5MW,替代用于计算光刻的 4 万台 CPU 服务器,为 2n

5、m 等生产做准备,台积电将于 6 月对 cuLitho 进行生产资格认证。软件软件 SDK 构成的构成的推理平台:推理平台:NVIDIA TensorRT 用于推理运行时针对指定 GPU 进行性能优化。NVIDIA Triton 用于数据中心的推理服务,支持多种深度学习框架,支持 GPU 和 CPU。NVIDIA BlueField:高效管理数据中心操作系统和软件。3、云服务云服务为全球各类公司普及生成式为全球各类公司普及生成式 AI 机会,推出语言机会,推出语言/视觉视觉/药物研发模型药物研发模型。NVIDIA DGX Cloud:为客户提供出色的 NVIDIA AI 服务,通过与 Micr

6、osoft Azure、Google GCP 和 Oracle OCI 合作,通过浏览器即可将 NVIDIA DGX AI 超级计算机即时地接入每家公司,为迫切需要使用生成式 AI 的客户提供了在全球云端即时访问 NVIDIA AI 的机会。NVIDIA AI Foundations:面向需要构建、优化和运营定制 LLM 和生成式 AI 的云服务,包括语言、视觉和生物学模型制作服务。NVIDIA Nemo 用于构建定制的语言文本转文本生成式模型,可便捷地采用预训练模型借助 NeMo 进行快速模型设计。Picasso 是一项视觉语言模型制作服务,面向希望使用许可内容或专有内容来训练自定义模型的客

7、户。NVIDIA 行业规模行业规模 占比%股票家数(只)454 9.2 总市值(亿元)74412 8.9 流通市值(亿元)56028 7.9 行业指数行业指数%1m 6m 12m 绝对表现 5.9 2.4 相对表现 3.8 8.9 资料来源:公司数据、招商证券 相关相关报告报告 1、英伟达 FY23Q4 跟踪报告本季业绩符合预期,数据中心和游戏业务增长展望乐观2023-02-24 2、海外电子跟踪报告英伟达FY2023Q1季报总结及业绩说明会纪要2022-05-27 3、海外电子跟踪报告英伟达FY2022 Q3 季报总结及法说会纪要2021-11-19 鄢凡鄢凡 S02

8、曹辉曹辉 S01 王恬王恬 S02 程鑫程鑫 研究助理 -30-20-1001020Mar/22Jul/22Nov/22Feb/23(%)电子沪深300AI 的的 iPhone 时刻到来时刻到来,英伟达全力加速生成式英伟达全力加速生成式 AI 发展发展 敬请阅读末页的重要说明 2 行业简评报告 BioNeMo 服务提供先进的用于药物研发的生成式 AI 模型。4、Omniverse 数字化平台构建虚拟化场景,提升工厂建造效率并节约资金数字化平台构建虚拟化场景,提升工厂建造效率并节约资金。工业化数字平台,旨在搭建数字化和物理实体之间的桥梁,让各个行业先以

9、数字方式设计、构建、运营和优化实体产品和工厂,然后再投入实际生产,以提高效率和速度,最终节省资金。一个用途是以虚拟方式构建工厂,在真正的实体工厂建成之前,以数字方式整合工厂的所有机械设备,减少在最后时刻出现意外、变更订单和工厂延迟开工等情况,虚拟工厂整合可以为全球工厂节省数十亿美元,可用于半导体晶圆厂、汽车制造商、电池制造商和物流仓库等。投资建议:投资建议:英伟达是全球领先的 GPU 厂商,逐步完成服务器核心 CPU 布局,在 AI 技术领域为客户提供完善的软硬件支持,与全球领军云服务厂商合作助力云计算应用普及,用 AI 的方式为各行业赋能增效。考虑到英伟达作为全球领先的 AI 技术风向标之一

10、,我们认为此次 GTC 大会再次展现了生成式 AI 应用的巨大潜力,建议关注英伟达以及直接参与其 GPU 产业链的全球优质公司以及国内同类对标公司,包括全球具备高端芯片制造、封测和软件支持的半导体生产厂商,同时关注核心主芯片成品到终端应用涉及到的芯片原厂、PCB、云服务硬件、AI 模型应用和各类终端厂商。风险提示:风险提示:竞争加剧风险;贸易摩擦风险;行业景气度变化风险;宏观经济及竞争加剧风险;贸易摩擦风险;行业景气度变化风险;宏观经济及政策风险。政策风险。表表 1:大算力:大算力相关电子相关电子产业链公司产业链公司 板块板块 领域领域 公司公司 芯片制造 晶圆厂 台积电、中芯国际等 封测 通

11、富微电、长电科技、伟测科技、甬矽电子等 EDA/IP 华大九天、概伦电子、广立微、芯原股份等 芯片相关 云端算力芯片 寒武纪、海光信息、龙芯中科、景嘉微等 边缘端算力芯片 瑞芯微、晶晨股份、全志科技、乐鑫科技、中科蓝讯、炬芯科技、恒玄科技、富瀚微等 主芯片外围芯片 杰华特、澜起科技、聚辰股份、晶丰明源、裕太微、龙迅股份等 存储 江波龙、佰维存储、兆易创新、北京君正、聚辰股份等 PCB 高多层板 深南电路、沪电股份、生益电子、胜宏科技、东山精密、鹏鼎控股等 IC 载板 深南电路、兴森科技等 载板材料 生益科技、华正新材、南亚新材等 云服务硬件 服务器整机 工业富联、浪潮信息、中科曙光、广达、英业

12、达、仁宝、纬颖等 高速连接、热管理等 立讯精密等 模型应用端 AI 大模型应用端 海康威视、大华股份、萤石网络等 终端 XR 立讯精密、高伟电子、兆威机电、长盈精密等 智能音箱 漫步者、国光电器、百度、阿里、小米等 可穿戴 立讯精密、漫步者、歌尔股份、佳禾智能等 资料来源:招商证券整理 (后附(后附英伟达英伟达GTC 2023黄仁勋黄仁勋主题演讲主题演讲纪要全文)纪要全文)pPpOXX8ZdXbZqUeXwV9PdNbRpNoOsQoNeRrRoNlOtRtQ7NoPsNvPqNwPNZpNmM 敬请阅读末页的重要说明 3 行业简评报告 附录:附录:英伟达英伟达 GTC 2023 开发者开发者

13、大会大会主题演讲主题演讲纪要纪要 时间:时间:2023 年 3 月 21 日 主讲人:主讲人:英伟达创始人黄仁勋 背景介绍背景介绍:近四十年来,摩尔定律一直是引领计算机行业动态发展的重要规律,而计算机行业又影响着各行各业的发展。在成本和功耗不变的情况下性能的指数级增长已经放缓,然而,计算技术的发展日新月异,曲速引擎是加速计算,动力来源就是 AI。各行各业正在应对,可持续发展、生成式 AI,和数字化等强大的动态挑战,因此加速计算和 AI 的到来,恰逢其时。如果没有摩尔定律,随着计算量的激增数据中心的能耗飙升,企业将难以实现净零排放,生成式AI 的非凡能力,使得企业产生了紧迫感,他们需要重新构思他

14、们的产品和商业模式,产业内各企业正在竞相实现数字化转型,成为软件驱动的科技公司,要成为颠覆者,而不是被颠覆者。今天,将讨论加速计算和 AI 如何成为强大的工具,帮人们应对这些挑战,和把握未来的巨大机遇,我们将分享 NVIDIA的数据中心级全栈加速计算平台的新进展,我们将展示新的芯片和系统、加速库、云服务、AI 服务,以及助力我们拓展新市场的合作伙伴关系,1、加速库:包括、加速库:包括 cuQuantum、cuOpt、culitho 等等平台,用于量子计算、运筹规划、平台,用于量子计算、运筹规划、视频处理、医疗、光刻等各个视频处理、医疗、光刻等各个领域领域 背景介绍:背景介绍:从图形、成像、粒子

15、或流体动力学、量子物理学,到数据处理和机器学习,每个经过优化的堆栈都会加速对应应用领域。加速后,应用可以获得令人难以置信的速度,还可以扩展到许多台计算机,在过去十年中,加速和纵向扩展的结合,使我们能够为许多应用,实现百万倍的性能提升,进而有助于解决以前无法解决的问题。例如,2012 年,Alex Kerchevsky、Ilya Suskever 和 Geoff Hinton 需要一台速度超快的计算机,来训练 AlexNet 计算机视觉模型,研究人员在 GeForce GTX580 上使用 1400 万张图像训练了 AlexNet,可处理 262 千万亿次浮点运算,经过训练的模型以压倒性优势赢得

16、了 ImageNet 挑战赛,并触发了 AI 的大爆炸。十年后,Transformer 模型面世了,现在任职于 OpenAI 的 Ilya 训练了 GPT-3 大型语言模型来预测下一个单词,训练GPT-3 需要进行 323x10e21 次浮点运算,浮点运算量比训练 AlexNet 多一百万倍,结果创造出了 ChatGPT,这个震惊全世界的 AI。崭新的计算平台已经诞生崭新的计算平台已经诞生,AI 的“的“iPhone 时刻”已经到来时刻”已经到来,加速计算和加速计算和 AI 技术已技术已经走进现实。经走进现实。加速库是加速计算的核心,这些加速库连接到了各种应用中,进而再连接到遍布世界的各行各业

17、,形成了网络中的网加速库是加速计算的核心,这些加速库连接到了各种应用中,进而再连接到遍布世界的各行各业,形成了网络中的网络。络。经过 30 年的开发,已经有数千款应用被 NVIDIA 的库加速,几乎涉及科学和工业的每个领域。所有 NVIDIA GPU都兼容 CUDA,为开发者提供了庞大的安装基础和广泛的覆盖范围,大量加速应用吸引了终端用户,为云服务提供商和计算机制造商创造了一个庞大的市场,这个市场大到足以投入数十亿的研发费用来推动其增长。汽车和航空航天行业使用 CFD 进行湍流和空气动力学仿真,电子行业使用 CFD 进行热管理设计。由 CUDA 加速的新CFD 求解器,在同等系统成本下,NVI

18、DIAA100 的吞吐量是 CPU 服务器的 9 倍,或者,在同等仿真吞吐量下,NVIDIA的成本降低了 9 倍能耗降低了 17 倍。Ansys、Siemens、Cadence 和其他先进的 CFD 求解器现已采用 CUDA 加速,在全球范围内,工业 CAE 每年使用近1000 亿 CPU 核心小时,加速计算是减少功耗、实现可持续发展和净零排放的最好方式。敬请阅读末页的重要说明 4 行业简评报告 图图 1:由由 CUDA 加速的新加速的新 CFD 求解求解 资料来源:英伟达,招商证券【cuQuantum 量子加速】量子加速】英伟达宣布推出量子控制链路英伟达宣布推出量子控制链路 cuQuantu

19、m,对量子计算机进行加速。,对量子计算机进行加速。NVIDIA 正在与全球量子计算研究社区合作,NVIDIA Quantum 平台由库和系统组成,可供研究人员推进量子编程模型,系统架构和算法。cuQuantum 是用于量子电路仿真的加速库 IBMQiskit、GoogleCirq、百度量易伏、QMWare、QuEra、Xanadu Pennylane、Agnostiq 和 AWS Bracket 已将 cuQuantum 集成到他们的仿真框架中,OpenQuantumCUDA 是我们的混合GPU-Quantum 编程模型。IonQ、ORCA Computing、Atom、QuEra、Oxfor

20、d Quantum Circuits、IQM、Pasqal、Quantum Brilliance、Quantinuum、Rigetti,Xanadu 和 Anyon 已经集成 OpenQuantum CUDA,要从量子噪声和退相干中恢复数据,需要对大量量子比特进行纠错。cuQuantum这是与这是与Quantum Machines合作开发的,它可将合作开发的,它可将NVIDIA GPU连接到量子计算机以极快的速度进行纠错连接到量子计算机以极快的速度进行纠错。虽然商用量子计算机还有十到二十年的时间才能实现,但我们很高兴能通过 NVIDIA Quantum,为这个充满活力的大型研究社区提供支持,全

21、球企业使用 Apache Spark 处理数据湖和存储,SQL 查询、图分析和推荐系统。图图 2:用于量子电路仿真的加速库用于量子电路仿真的加速库 cuQuantum 资料来源:英伟达,招商证券 敬请阅读末页的重要说明 5 行业简评报告 Spark-RAPIDS 是是 NVIDIA 加速的加速的 Apache Spark 数据处理引擎数据处理引擎,可加速主要云数据处理平台,可加速主要云数据处理平台。数据处理是全球 5000亿美元云计算支出的主要工作负载,现在 Spark-RAPIDS 可加速主要云数据处理平台,包括 GCP Dataproc,Amazon EMR、Databricks 和 Cl

22、oudera,推荐系统使用向量数据库来存储、索引、搜索和检索非结构化数据的大型数据集,向量数据库的一个新型重要用例是大型语言模型,在文本生成过程中,可用于检索领域特定事实或专有事实,我们将推出一个新的库,即 RAFT,用于加速索引、数据加载和近邻检索,我们正在将 RAFT 的加速引入到 Meta 的开源 FAISS AI 相似性搜索,超过 1000 家组织使用的,Milvus 开源向量数据库以及 Docker 镜像下载次数超过 40 亿次的 Redis,对于构建专有大型语言模型的组织而言,向量数据库至关重要。图图 3:Spark-RAPIDS 数据处理引擎数据处理引擎 资料来源:英伟达,招商证

23、券 【cuOpt 运筹规划加速】运筹规划加速】英伟达英伟达 cuOpt 加速库用于运筹学领域,解决组合优化问题。加速库用于运筹学领域,解决组合优化问题。22 年前,运筹学研究科学家 Li 和 Lim 发布了一系列具有挑战性的拣取和配送问题(PDP),PDP 出现在制造、运输零售和物流,甚至救灾领域,PDP 是旅行商问题的泛化同时也是 NP-hard 问题,这意味着不存在有效算法来找到精确解,随着问题规模的增加,求解时间会呈阶乘增长。NVIDIA cuOpt 使用进化算法和加速计算每秒分析 300 亿次动作,打破了世界纪录,并为 Li 和 Lim 的挑战找到了合适的解决方案。AT&T 定期派遣

24、3 万名技术人员为 700 个地理区域的 1300 万客户提供服务,如今,如果在 CPU 上运行,AT&T 的调度优化需要一整夜的时间,AT&T 希望找到一个实时调度解决方案,能不断优化紧急客户需求,和整体客户满意度,同时能针对延误和出现的新事件进行调整,借助 cuOpt,AT&T 可以将查找解决方案的速度加快 100 倍并实时更新其调度方案,AT&T 已采用全套 NVIDIA AI 库。除了 Spark-RAPIDS 和 cuOPT 之外,他们还将 Riva 用于对话式 AI,并将 Omniverse 用于数字人,AT&T 正在利用NVIDIA 加速计算和 AI 来实现高可持续性、成本节约和

25、新的服务,cuOpt 还可以优化物流服务,每年有 4000 亿个包裹被投递到 3770 亿个站点。德勤、Capgemini、Softserve、埃森哲和 Quantiphi 正在使用 NVIDIA cuOpt 来帮助客户优化运营。敬请阅读末页的重要说明 6 行业简评报告 图图 4:英伟达英伟达 cuOpt 及客户及客户 资料来源:英伟达,招商证券 NVIDIA 的推理平台由三个软件的推理平台由三个软件 SDK 组成组成:NVIDIA TensorRT 用于推理运行时针对指定用于推理运行时针对指定 GPU 进行性能优化,进行性能优化,NVIDIA Triton 用于数据中心的推理服务,支持多种深

26、度学习框架,支持用于数据中心的推理服务,支持多种深度学习框架,支持 GPU 和和 CPU。TensorRT 和 Triton 已有 4 万余客户其中包括 Microsoft Office 和 Teams,Amazon、美国运通和美国邮政署,Uber使用Triton每秒为数十万车辆预测到达时间,Roblox拥有超6000万的日活用户,它使用Triton来部署包括游戏推荐,构建虚拟形象、审核内容和市场广告的模型。我们将发布一些强大的新功能:支持集成模型的模型分析器、并发多模型服务,以及适用于 GPT-3 大语言模型的多GPU、多节点推理。NVIDIA Triton Management Servi

27、ce 是我们的新软件,可在整个数据中心,自动扩展和编排 Triton推理实例;50%-80%的云视频管线运行在 CPU 上,这增加了功耗和成本,并增加了延迟。Triton Management Service将帮助您提高部署模型的吞吐量和成本效率。图图 5:TensorRT 和和 Triton 推理平台推理平台 资料来源:英伟达,招商证券 【CV-CUDA 视频处理加速】视频处理加速】用于计算机视觉的用于计算机视觉的 CV-CUDA 和用于视频处理的和用于视频处理的 VPF 是新的云规模加速库是新的云规模加速库。CV-CUDA 包括 30 个计算机视觉算子,可用于检测、分割和分类,VPF 是一

28、个 Python 视频编解码加速库,腾讯使用 CV-CUDA 和 VPF 每天处理 30 万个视 敬请阅读末页的重要说明 7 行业简评报告 频,Microsoft 使用 CV-CUDA 和 VPF 来处理视觉搜索,Runway 公司使用 CV-CUDA 和 VPF,为其云生成式 AI 视频编辑服务处理视频。视频已经占据了 80%的互联网流量,用户生成的视频内容正在显著增长,并消耗大量能源,我们应该加速所有视频处理服务并减少能源消耗,CV-CUDA 和 VPF 处于抢先体验阶段。图图 6:CV-CUDA 平台平台 资料来源:英伟达,招商证券【Parabricks 医疗加速】医疗加速】NVIDIA

29、 加速计算帮助基因组学实现了里程碑式发展,现在医生可以在同一次就诊中抽取患者的血液并对其 DNA 进行测序;另一个里程碑是,使用另一个里程碑是,使用 NVIDIA 助力的仪器设备,将整个基因组测序的成本降低至仅需助力的仪器设备,将整个基因组测序的成本降低至仅需 100 美元美元,基因组学是合成生物学的重要工具从药物研发、农业到能源生产,其应用范围非常广泛。NVIDIA Parabricks 是一套 AI 加速库,可用于云端或仪器设备内的端到端基因组分析,NVIDIA Parabricks 适用于各种公有云和基因组学平台(例如Terra、DNAnexus和FormBio)。今天,我们宣布推出Pa

30、rabricks4.1,并将会在PacBio、OxfordNanopore、Ultima,Singular、BioNano 和 Nanostring 的第四代 NVIDIA 加速基因组学设备上运行,全球价值2500 亿美元的医疗设备市场正在发生变革,医疗设备将由软件定义,并且由 AI 进行赋能。NVIDIA Holoscan 是一个适用于实时传感器处理系统的软件库,超过 75 家公司正在通过 Holoscan 开发医疗设备,今天我们宣布,全球医疗设备行业领导者 Medtronic 将与 NVIDIA 携手,为软件定义的医疗设备构建其 AI 平台,此次合作将为 Medtronic 系统打造一个通

31、用平台,从手术导航到机器人辅助手术,皆包含在内。今天,Medtronic 宣布基于 NVIDIA Holoscan 构建新一代 GIGenius 系统,将 AI 用于早期检测结肠癌并将于今年年底推出。敬请阅读末页的重要说明 8 行业简评报告 图图 7:Parabricks 加速库加速库 资料来源:英伟达,招商证券 【cuLitho 光刻加速】光刻加速】背景介绍:背景介绍:芯片行业几乎是各行各业的基础,芯片制造要求极高的精确度,生产出的特征比细菌小 1000 倍,大小约为一个金原子或一条人类 DNA 链的尺寸。光刻,即在晶圆上创建图案的过程,是芯片制造过程的起始阶段,包括两个阶段-光掩模制作和图

32、案投影。从根本上来说,这是一个物理极限下的成像问题,光掩模如同芯片中的模板光线被阻挡或穿过掩模,到达晶片以形成图案。光线由 ASML EUV 极紫外线光刻系统产生,每个系统的价值超过 2.5 亿美元,ASML EUV 采用一种颠覆性的方式来制造光线,激光脉冲每秒向一滴锡发射 5 万次,使其汽化,产生一种能发射 13.5 纳米 EUV 光的等离子体,几乎是 X射线,随后,多层镜面引导光线至光掩膜。光掩膜板中的多层反射器利用 13.5 纳米光的干涉图案,实现更精细特征,精细度可达到 3 纳米,晶圆的定位精度达到四分之一纳米,并且每秒对准 2 万次以消除任何振动的影响,光刻之前的步骤,计算光刻应用逆

33、物理算法来预测掩膜板上的图案,以便在晶圆上生成最终图案,事实上,掩膜上的图案与最终特征完全不相似,计算光刻模拟了光通过光学元件并与光刻胶相互作用时的行为,这些行为是根据麦克斯韦方程描述的。计算光刻是芯片设计和制造领域中最大的计算工作负载,每年消耗数百亿 CPU 小时,大型数据中心 24x7 全天候运行以便创建用于光刻系统的掩膜板,这些数据中心是芯片制造商每年投资近 2000 亿美元的资本支出的一部分,随着算法越来越复杂计算光刻技术也在快速发展,使整个行业能够达到 2 纳米及以上。敬请阅读末页的重要说明 9 行业简评报告 图图 8:cuLitho 加速库合作客户加速库合作客户 资料来源:英伟达,

34、招商证券 NVIDIA 今天宣布推出 cuLitho一个计算光刻库一个计算光刻库,cuLitho 是一项历时近四年的庞大任务,我们与台积电、是一项历时近四年的庞大任务,我们与台积电、ASML和和 Synopsys 密切合作,将计算光刻加速了密切合作,将计算光刻加速了 40 倍以上。倍以上。NVIDIA H100 需要 89 块掩膜板,在 CPU 上运行时,处理单个掩膜板当前需要两周时间,如果在 GPU 上运行 cuLitho只需 8 小时即可处理完一个掩膜板。台积电可以通过在台积电可以通过在 500 个个 DGX H100 系统上使用系统上使用 cuLitho 加速,将功率从加速,将功率从 3

35、5MW 降至降至 5MW,从而替代用于计算光,从而替代用于计算光刻的刻的 4 万台万台 CPU 服务器。借助服务器。借助 cuLitho,台积电可以缩短原型周期时间提高产量,减少制造过程中的碳足迹并为,台积电可以缩短原型周期时间提高产量,减少制造过程中的碳足迹并为 2纳米及以上的生产做好准备,台积电将于纳米及以上的生产做好准备,台积电将于 6 月开始对月开始对 cuLitho 进行生产资格认证。进行生产资格认证。2、加速芯片:推出全新、加速芯片:推出全新 Grace CPU、Superchip 模组及模组及 BlueField 技术,面向技术,面向 AI、云、云服务、数据中心等服务、数据中心等

36、 背景介绍:背景介绍:所有行业都需要加速各种工作负载,以便我们能减少功耗,达到事半功倍的效果,在过去十年中,云计算每年增长 20%,成为了价值 1 万亿美元的巨大行业,大约 3000 万台 CPU 服务器完成大部分处理工作,而挑战即将到来,随着摩尔定律的终结,CPU 性能的提高也会伴随着功耗的增加,另外,减少碳排放这一任务从根本上与增加数据中心的需求相悖,云计算的发展受功耗限制,首先,数据中心必须加速各种工作负载,加速将会减少功耗,节省的能源可以促进新的增长,未经过加速的工作负载都将会在 CPU 上进行处理,加速云数据中心的 CPU 侧重点与过去有着根本性的不同,在 AI 和云服务中,加速计算

37、卸载可并行的工作负载,而 CPU 可处理其他工作负载,比如 WebRPC 和数据库查询。英伟达推出面向英伟达推出面向 AI 和云的和云的 Grace CPU。其中 AI 工作负载由 GPU 加速,单线程执行和内存处理则是 Grace 的擅长之处,但这不仅仅是 CPU 芯片的问题,数据中心管理员负责对整个数据中心的吞吐量和 TCO 进行优化,为了在云数据中心规模下实现高能效我们设计了 Grace,Grace 包含 72 个 Arm 核心,由超高速片内可扩展的、缓存一致的网络连接,可提供 3.2TB/s 的截面带宽。敬请阅读末页的重要说明 10 行业简评报告 图图 9:Grace CPU 资料来源

38、:英伟达,招商证券 Grace Superchip 模组模组是云数据中心的基础。是云数据中心的基础。通过 900GB/s 的低功耗芯片到芯片缓存一致接口,连接两个 CPU 芯片之间的 144 个核,内存系统由 LPDDR 低功耗内存构成(与手机上使用的相似),我们专门对此进行了增强,以便在数据中心中使用它提供 1TB/s 的带宽,是目前系统的 2.5 倍而功耗只是其 1/8,整个 144 核 Grace Superchip 模组的大小仅为 5x8 英寸,而内存高达 1TB,该模组的功耗超低,风冷即可。带有被动冷却功能的计算模组,两台 Grace Superchip 计算机可以安装进一台 1U

39、风冷服务器即可正常运行,Grace 的性能和能效非常适合云计算应用和科学计算应用。我们使用热门的 Google 基准测试(测试云微服务的通信速度),和 Hi-Bench 套件(测试 Apache Spark 内存密集型数据处理)测试了 Grace,此类工作负载是云数据中心的基础。图图 10:Grace Superchip 资料来源:英伟达,招商证券 敬请阅读末页的重要说明 11 行业简评报告 Grace 处理速度大大提升,目前正在进行样品调测。处理速度大大提升,目前正在进行样品调测。在微服务方面,Grace 的速度比最新一代 x86CPU 的平均速度快 1.3 倍,而在数据处理中则快 1.2

40、倍,而达到如此高性能,整机功耗仅为原来服务器的 60%。云服务提供商可以为功率受限的数据中心配备超过 1.7 倍的 Grace 服务器,每台服务器的吞吐量提高 25%,在功耗相同的情况下,Grace使云服务提供商获得了两倍的增长机会。Grace 正在进行样品调测,华硕、Atos、GB、HPE、QCT Supermicro、Wistron 和 ZT 目前正在构建系统。图图 11:Grace CPU 和和 NEXT-GEN x86 性能对比性能对比 资料来源:英伟达,招商证券 英伟达英伟达 BlueField 能高效管理数据中心操作系统和软件。能高效管理数据中心操作系统和软件。在现代软件定义的数据

41、中心中,操作系统在执行虚拟化、网络、存储和安全任务时,会消耗近一半的数据中心 CPU 核心和相关功耗,数据中心必须加速每个工作负载,从而降低功耗并释放 CPU 给可创造收入的工作负载,NVIDIA Blue Field 卸载并加速数据中心操作系统和基础设施软件。Check Point、思科、DDN、DellEMC、Juniper、Palo Alto Networks,RedHat 和 VMWare 等超过二十个生态系统合作伙伴,使用 BlueField 的数据中心加速技术来更高效地运行其软件平台。BlueField-3 已投入生产,并被领先的云服务提供商所采用以加速其云计算平台,比如百度、Co

42、re Weave,京东、Microsoft Azure、Oracle OCI 和腾讯游戏。图图 12:BlueField-3 资料来源:英伟达,招商证券 敬请阅读末页的重要说明 12 行业简评报告 3、AI 超级计算机及云计算平台:基于超级计算机及云计算平台:基于 DGX Cloud,为全球主要云服务商提供为全球主要云服务商提供 AI 技术技术 背景介绍:背景介绍:NVIDIA 加速计算始于 DGX(AI 超级计算机),这是大语言模型实现突破背后的引擎,我亲手将全球首款 DGX 交给了 OpenAI,自此之后,财富100 强企业中有一半 安装了 DGX AI 超级计算机,DGX 已成为 AI

43、领域的必备工具。英伟达英伟达 DGX H100 AI 超级计算机全面投入生产,不断扩展应用版图。超级计算机全面投入生产,不断扩展应用版图。DGX 配有 8 个 H100GPU 模组,H100 配有Transformer 引擎,旨在处理类似令人惊叹的 ChatGPT 模型,。ChatGPT 是生成式预训练 Transformer 模型的代表,这 8 个 H100 模组通过 NVLINK Switch 彼此相连,以实现全面无阻塞通信,8 个 H100 协同工作,就像一个巨型 GPU,计算网络是 AI 超级计算机的重要系统之一。400Gbps 超低延迟的 NVIDIA QuantumInfini B

44、and,具有网络内计算功能,可将成千上万个 DGX 节点连接成一台 AI 超级计算机。NVIDIA DGX H100 是全球客户构建 AI 基础设施的蓝图,现在已全面投入生产。微软宣布 Azure 将向其 H100AI 超级计算机开放私人预览版,Atos、AWS、Cirrascale、CoreWeave、戴尔、Gigabyte、谷歌、HPE、Lambda Labs、联想、Oracle、Quanta,和 SuperMicro 也将很快开放系统和云服务。DGX AI 超级计算机的市场获得了显著增长,从最初被用作 AI 研究工具,DGXAI 超级计算机正在不断扩展其应用范围能够全天候运行以优化数据和

45、处理 AI,DGX 超级计算机是现代 AI 工厂。图图 13:DGX 超级计算机组装全流程超级计算机组装全流程 资料来源:英伟达,招商证券 我们正处于我们正处于 AI 的“的“iPhone 时刻”,时刻”,DGX Cloud 为全球主要云服务商提供为全球主要云服务商提供 AI 技术。技术。生成式 AI 引发了全球企业制定AI战略的紧迫感,客户需要更简单快捷地访问NVIDIAAI,我们宣布推出NVIDIA DGX Cloud,通过与Microsoft Azure、Google GCP 和 Oracle OCI 合作,通过一个浏览器就可以将 NVIDIADGXAI 超级计算机即时地接入每家公司,D

46、GX Cloud 经过优化,可运行 NVIDIA AI Enterprise,这是一款全球领先的加速库套件,用于 AI 端到端开发和部署。DGX Cloud 为客户提供出色的 NVIDIA AI 以及全球主要的云服务提供商,这一合作将 NVIDIA 的生态系统引入到了云服务提供商 NVIDIA 触及的范围得以扩展,这种双赢的合作伙伴关系为迫切需要使用生成式 AI 的客户提供了在全球云端即时访问 NVIDIA AI 的机会,我们很高兴我们的业务模式以这种速度、规模和覆盖范围在云上扩展。敬请阅读末页的重要说明 13 行业简评报告 图图 14:NVIDIA DGX Cloud 资料来源:英伟达,招商

47、证券 Oracle Cloud Infrastructure(OCI)将成为首个将成为首个 NVIDIA DGX Cloud。OCI 具有出色的性能它拥有两层计算网络和管理网络,具有业界最佳 RDMA 功能的 NVIDIA CX-7 提供了计算网络,而 Blue Field-3 将成为管理网络的基础设施处理器,这种组合是一款先进的 DGXAI 超级计算机,可提供多租户云服务。我们拥有 50 家 EA 企业客户,涵盖消费互联网和软件、医疗健康,媒体和娱乐以及金融服务。图图 15:Oracle Cloud Infrastructure DGX Cloud 资料来源:英伟达,招商证券 4、云代工厂:

48、面向生成式、云代工厂:面向生成式 AI 技术,用于文本转换、图像视频生成、药物模型创建等技术,用于文本转换、图像视频生成、药物模型创建等 背景介绍:背景介绍:ChatGPT、Stable Diffusion、DALL-E 和 Mid journey 唤醒了世界对生成式 AI 的认知,这些应用的易用性和令人印象深刻的功能,短短几个月内就吸引了超过一亿的用户,ChatGPT 是迄今历史上用户数量增长最快的应用,无需训练只需给这些模型下指令即可,您可以使用精确提示,也可以使用模糊提示如果提示不够清晰,ChatGPT 会根据对话了解您的意图,生成的文本令人赞叹,ChatGPT 可以撰写备忘录和诗歌,改

49、写研究论文,解决数学问题,突出合同 敬请阅读末页的重要说明 14 行业简评报告 的关键点,甚至编写软件程序,ChatGPT 是一台计算机,它不仅可以运行软件,还能编写软件,众多突破性成果造就了生成式 AI,Transformers 能以大规模并行的方式,从数据的关系和依赖性中学习上下文和含义,这使得大型语言模型能够利用海量数据进行学习,他们可以在没有明确训练的情况下执行下游任务,受物理学启发的扩散模型通过无监督学习来生成图像,在短短十几年的时间里,我们经历了从试图识别猫到生成穿着太空服,在月球上行走的,的逼真猫图像的过程。生成式 AI 是一种新型计算机,一种我们可以用人类语言进行编程的计算机,

50、这种能力影响深远每个人都可以命令计算机来解决问题,而之前这是只有计算机程序员才能接触的领域,现在每个人都可以是程序员。生成式 AI 是一种新型计算平台,与 PC、互联网、移动设备和云类似,与之前的计算时代类似先行者正在打造新的应用,并成立新公司,以利用生成式 AI 的自动化和协同创作能力。英伟达宣布推出英伟达宣布推出 NVIDIA AI Foundations,这是一项云服务,面向需要构建、优化和运营,定制,这是一项云服务,面向需要构建、优化和运营,定制 LLM(大型语言模(大型语言模型)和生成式型)和生成式 AI,使用其专有数据进行训练,用于处理特定领域的任务。,使用其专有数据进行训练,用于

51、处理特定领域的任务。NVIDIA AI Foundations 包括语言,视觉和生物学模型制作服务。图图 16:NVIDIA AI Foundations 资料来源:英伟达,招商证券 NVIDIA NeMo 用于构建定制的语言文本转文本生成式模型。用于构建定制的语言文本转文本生成式模型。客户可以引入自己的模型,或从 NeMo 涵盖了 GPT-8、GPT-43 到 GPT-530 等数十亿参数的预训练模型入手。生成式模型,比如 NVIDIA 的 43B 基础模型,通过基于数十亿个句子和数万亿个单词进行训练来学习。随着模型的收敛,它开始理解单词与其基本概念之间的关系,这些关系通过模型嵌入空间中的权

52、重进行捕获。Transformer 模型使用一种名为自注意力的技术:一种旨在学习一系列单词中的依赖性和关系的机制,其结果是得到一种模型,该模型可为类似 ChatGPT 的体验奠定基础,这些生成式模型需要大量数据,数据处理和分布式训练方面深厚的 AI 专业知识,以及大规模计算,以跟上创新的步伐进行训练、部署和维护。企业可以通过在企业可以通过在 NVIDIA DGX Cloud 上的上的 NVIDIA NeMo 服务,快速采用生成式服务,快速采用生成式 AI。最快捷的方法是从 NVIDIA 的某项先进预训练基础模型开始入手,借助 NeMo 服务,人们可以轻松自定义一个模型,并进行参数调优,以教授其

53、专业技能,比如汇总财务文档,创建特定品牌的内容,以及以个性化的写作风格撰写电子邮件。将模型连接到专有知识库,可确保响应是准确的、最新的,并为其业务所引用。接下来可以通过添加逻辑,以及监控输入、输出、毒性和偏差阈值来提供防护栏,以便模型在指定的领域内运行,并防止出现意外响应。模型投入使用后,可以根据,用户交互通过强化学习不断改进,在迁移到云 API 进行更大规模的评估和应用集成之前,可以使用 NeMo 进行快速原型设计。敬请阅读末页的重要说明 15 行业简评报告 图图 17:Nemo 语言模型语言模型 资料来源:NVIDIA GTC,招商证券 Picasso 是一项视觉语言模型制作服务,面向希望

54、使用许可内容或专有内容来训练自定义模型的客户。是一项视觉语言模型制作服务,面向希望使用许可内容或专有内容来训练自定义模型的客户。要充分发挥其潜力,企业需要大量版权许可的数据、AI 专家和 AI 超级计算机,NVIDIA Picasso 是一项云服务,用于构建和部署生成式 AI 赋能的图像、视频和 3D 应用。借助此服务,企业、ISV 和服务提供商,可以部署自己的模型。公司正在与主要合作伙伴合作,力求为各行各业提供生成式 AI 功能,另外,人们还可以从 NVIDIA Edify 模型入手,使用自己的数据训练这些模型,以创建产品或服务。这些模型可生成图像、视频和 3D 素材。要访问生成式 AI 模

55、型,应用需向 Picasso发送带有文本提示和元数据的 API 调用,Picasso 使用在 NVIDIA DGX Cloud 上运行的适当模型,将生成的素材发送回应用,这些素材可以是逼真的图像、高分辨率视频或详细的 3D 几何图形,可将生成的素材导入编辑工具或 NVIDIA Omniverse,以构建逼真的虚拟世界,元宇宙应用和数字孪生仿真。NVIDIA Picasso 服务可以简化构建自定义生成式服务可以简化构建自定义生成式 AI 应用所需的训练、优化和推理。应用所需的训练、优化和推理。Getty Images 将使用 Picasso服务构建 Edify 图片和 Edify 视频生成式模型

56、,这些模型以其丰富的内容库为基础进行训练,其中包含大量以负责任授权的方式获得许可的专业图像和视频素材,企业将能够使用简单的文本或图像提示创建自定义的图像和视频。Shutterstock 正在开发一款以其专业的图像、3D 和视频素材库进行训练的 Edify-3D 生成式模型,Shutterstock 将帮助简化用于创意制作、数字孪生和虚拟协作的 3D 素材的创建过程,使企业能够更快更轻松地实现这些工作流。公司与 Adobe 之间的长期合作将迎来重要扩展,公司将共同构建一系列新一代 AI 功能,打造创意领域的未来,将生成式AI 融入营销人员和创意专业人士的日常工作流,新的生成式 AI 模型将针对图

57、像、视频、3D 和动画制作进行优化,为了保护艺术家的权利,Adobe 正在开发以商业可行性和正确内容归属为重点的方案,该方案由 Adobe 的“内容真实性倡议”提供支持。敬请阅读末页的重要说明 16 行业简评报告 图图 18:Picasso视觉语言模型视觉语言模型 资料来源:NVIDIA GTC,招商证券 NVIDIA AI Foundations 的第三个领域应用是生物学。的第三个领域应用是生物学。药物研发是一个价值近 2 万亿美元的行业,研发投入高达 2500亿美元。NVIDIA Clara 是一款医疗健康应用框架,用于影像,仪器、基因组学分析和药物研发。目前,该行业正在转向利用生成式 A

58、I 来发现疾病靶因,设计新型分子或蛋白质类药物,以及预测药物对机体的作用。数百家新型 AI 药物研发初创公司相继涌现,Insilico Medicine、Exscientia、Absci 和 Evozyme 就位列其中,有些公司已经发现了新型靶标或候选药物,并开始了人体临床试验。BioNeMo 可帮助研究人员使用专有数据创建、微调和提供自定义模型。可帮助研究人员使用专有数据创建、微调和提供自定义模型。药物研发包括 3 个关键阶段,发现引发疾病的机理,设计新分子无论是小分子、蛋白质还是抗体,以及最后就这些分子之间相互作用的方式进行筛选。如今,生成式 AI 正在改变药物研发过程的每一步,NVIDI

59、A BioNeMo 服务提供先进的、用于药物研发的生成式 AI 模型,它可作为云服务提供,让用户即时轻松地访问加速的药物研发工作流。BioNeMo 包括 AlphaFold、ESMFold 和 OpenFold等,用于三维蛋白质结构预测的模型,ProtGPT用于蛋白质生成,ESM1和ESM2用于蛋白质特性预测,MegaMolBART和 MoFlow 用于分子生成,DiffDock 则用于分子对接。药物研发团队可以通过 BioNeMo 的 Web 界面或云 API 使用这些模型。BioNeMo 在药物研发领域的应用:在药物研发领域的应用:以下是一个使用 NVIDIA BioNeMo 进行药物研发

60、虚拟筛选的示例,生成式模型可以读取蛋白质氨基酸序列,并在几秒钟内准确预测目标蛋白质的结构,它们还可生成具有理想 ADME 特性的分子,从而优化药物在体内的作用方式。生成式模型甚至可以预测蛋白质和分子的三维相互作用,加速最佳候选药物的研发。借助 NVIDIA DGX Cloud,BioNeMo 还可提供按需超级计算基础设施,以进一步优化和训练模型,进而为团队节省宝贵的时间和资金,使其专注于研发挽救生命的药物。敬请阅读末页的重要说明 17 行业简评报告 图图 19:BioNeMo 模型模型 资料来源:NVIDIA GTC,招商证券 NVIDIA AI Foundations 是一个云服务代工厂,用

61、于构建自定义语言模型和生成式是一个云服务代工厂,用于构建自定义语言模型和生成式 AI。自十年前 AlexNet 面市以来,深度学习就开辟了巨大的新市场,包括自动驾驶、机器人、智能音箱,并重塑了购物、了解新闻和享受音乐的方式。这只是冰山一角,随着生成式 AI 掀起新一波机遇浪潮,AI 正处于转折点,使得推理工作负载呈阶梯函数式增长。AI现在可以生成多种数据,从语音、文本、图像、视频和 3D 图形,到蛋白质和化学物质,不一而足。设计一个云数据中心来处理生成式 AI 是一项巨大挑战,一方面,理想情况下最好使用一种加速器,因为这可以使得数据中心具有弹性,能够应对不可预测的流量峰值和低谷;但另一方面,没

62、有一个加速器能以最优的方式处理在算法、模型、数据类型和数据大小方面的多样性,NVIDIA 的 One Architecture 平台兼具加速功能和弹性。5、推理芯片、推理芯片平台:平台:面向面向 AI 视频、视频、Omniverse 和图形渲染、和图形渲染、ChatGPT 等大型语言模型等大型语言模型等应用等应用 公司公司宣布推出全新的推理平台:四种配置,一个体系架构,一个软件栈,每种配置都针对某一类工作负载进行了优化。宣布推出全新的推理平台:四种配置,一个体系架构,一个软件栈,每种配置都针对某一类工作负载进行了优化。图图 20:NVIDIA全新推理平台全新推理平台 资料来源:NVIDIA G

63、TC,招商证券 敬请阅读末页的重要说明 18 行业简评报告 1)针对针对 AI 视频工作负载,视频工作负载,公司公司推出了推出了 L4。它针对以下方面进行了优化:视频解码和转码、视频内容审核,以及视频通话功能,例如背景替换、重新打光、眼神交流,转录和实时翻译。如今大多数云端视频都在 CPU 上处理,一台8-GPU L4 服务器将取代一百多台用于处理 AI 视频的双插槽 CPU 服务器。Snap 是 NVIDIA AI 在计算机视觉和推荐系统领域领先的用户。NVIDIA 和 Google Cloud 正在努力加速在 L4 上部署主要工作负载。首先,公司正在加速针对Wombo和Descript等云

64、服务的生成式AI模型的推理;其次,公司会将Triton推理服务器与Google Kubernetes Engine和 VertexAI 集成;第三,公司将使用 NVIDIA Spark-RAPIDS 加速 Google Dataproc;第四,公司将加速 AlphaFold UL2 和 T5 大型语言模型;第五,公司将加速 Google Cloud 的沉浸式流,以渲染 3D 和 AR 体验。2)针对针对 Omniverse、图形渲染以及文本转图像和文本转视频等生成式、图形渲染以及文本转图像和文本转视频等生成式 AI,公司公司推出推出 L40。L40 的性能是 NVIDIA最受欢迎的云推理 GP

65、U T4 的 10 倍。Runway 是生成式 AI 领域的先驱,他们正在发明用于创作和编辑内容的生成式AI 模型,借助 30 多种来自云端的 AI Magic Tools,他们的服务将彻底改变创作过程。在本地或云端运行的最新一代NVIDIA GPU 的助力下,Runway 让用户只需简单几笔即可从视频中移除一个对象,或仅使用一个输入图像就可以对视频应用不同的样式,或更改视频的背景或前景。过去使用传统工具需要数小时才能完成的工作,现在只需短短几分钟就可以获得专业广播级质量的结果。在实现这一点的过程中,Runway 采用了 CV-CUDA,它是一个开源项目,使开发者能够构建 GPU 加速的高效计

66、算机视觉工作负载预处理和后处理流程,并将其扩展到云。借助 NVIDIA 技术,Runway 得以行不可能之事,让内容创作者获得最佳体验。以前受限的专业工作现在可以由您来完成,事实上 Runway在奥斯卡提名的好莱坞电影中得到了应用,而公司正在致力将这项技术提供给全世界的创作者。3)针对针对 ChatGPT 等大型语言模型的推理,等大型语言模型的推理,公司公司推出一款新的推出一款新的 Hopper GPU。配备双 GPU NVLINK 的 PCIE H100,这一款 H100 配备 94GB HBM3 显存,H100 可以处理拥有 1750 亿参数的 GPT-3,同时还可支持商用 PCIE 服务

67、器轻松扩展。目前在云上唯一可以实际处理 ChatGPT 的 GPU 是 HGX A100,与适用于 GPT-3 处理的 HGX A100 相比,一台搭载四对 H100 及双 GPU NVLINK 的标准服务器的速度要快 10 倍。H100 可将大型语言模型的处理成本降低一个数量级。4)Grace Hopper是新的超级芯片。是新的超级芯片。通过900 GB/秒的高速一致性芯片到芯片接口连接Grace CPU和Hopper GPU。Grace Hopper 非常适合处理大型数据集,例如适用于推荐系统和大型语言模型的 AI 数据库。如今,利用大容量内存,CPU 会存储和查询巨型嵌入表,然后将结果传

68、输到 GPU 进行推理,借助 Grace-Hopper,Grace 可以查询嵌入表,并将结果直接传输到 Hopper,速度比 PCIE 快 7 倍,客户希望构建规模大几个数量级的 AI 数据库,Grace-Hopper是理想的引擎,以上就是 NVIDIA 的推理平台,一个为适用于多种 AI 负载,最大化的数据中心加速和弹性而设计的架构。6、Omniverse 虚拟工厂:沟通数字和实体,帮助工业仓储、汽车等领域快速搭建工厂虚拟工厂:沟通数字和实体,帮助工业仓储、汽车等领域快速搭建工厂 Omniverse 是一个工业数字化平台,旨在搭建数字化和物理实体之间的桥梁。是一个工业数字化平台,旨在搭建数字

69、化和物理实体之间的桥梁。该平台让各个行业先以数字方式设计、构建、运营和优化实体产品和工厂,然后再投入实际生产,数字化提高了效率和速度,并节省了资金。Omniverse 其中一个用途是以虚拟方式构建工厂,在真正的实体工厂建成之前,以数字方式整合工厂的所有机械设备,这样可以减少在最后时刻出现意外、变更订单和工厂延迟开工等情况,虚拟工厂整合可以为全球工厂节省数十亿美元。半导体行业正在投资 5000 亿美元来建造 84 个新晶圆厂,到 2030 年,汽车制造商将建造 300 家工厂生产 2 亿辆电动汽车,电池制造商正在建造 100 多家特大型工厂,数字化也在改变物流行业,在全球数十亿平方英尺的仓库之间

70、辗转运输货物。Omniverse 在仓储领域的应用:在仓储领域的应用:我们来看看 Amazon 如何使用 Omniverse 自动化、优化和规划其自动仓库。Amazon Robotics 制造并部署了非常庞大的移动工业机器人机群,此机器人机群的最新成员是 Proteus,这是 Amazon 首个完全自主的仓库机器人。Proteus 可利用先进的安全、感知和导航技术在公司的设施中移动。Proteus 具有多个传感器,其中包括摄像头激光雷达和超声传感器,用于为其自主软件系统提供支持,Proteus 团队需要提高神经网络的性能,该神经网络能够读取基准标记并帮助机器人,确定其在地图上的位置。训练由机器

71、人传感器输入驱动的 ML 模型需要大量正确的数据,通过 Isaac Sim 中的 Omniverse Replicator,Amazon Robotics 成功生成了大型逼真合成数据集,将标记检测成功率从 88.6%提高到了 98%。此外,使用 Omniverse Replicator 生成的合成数据还加快了开发速度,将所需时间从几个月缩短到了几天,因为与仅使用真实数据相比,公司能够以更快的速度迭代测试和训练模型。为了 敬请阅读末页的重要说明 19 行业简评报告 给不断壮大的 Proteus 机器机群提供新的自主功能,Amazon Robotics 正在努力缩小仿真与现实之间的差距,构建大规模

72、的多传感器、多机器人仿真。借助 Omniverse,Amazon Robotics 将通过全保真仓库数字孪生优化运营,无论是生成合成数据还是开发更高水平的自主功能,基于 Omniverse 的 Isaac Sim,都可帮助 Amazon Robotics 团队在设施中部署 Proteus 之时节省时间和资金。图图 21:Proteus 机器人机器人 图图 22:仓储应用示例:仓储应用示例 资料来源:NVIDIA GTC,招商证券 资料来源:NVIDIA GTC,招商证券 Omniverse 具备独特的数字化技术,是具备独特的数字化技术,是 USD 的首要开发平台,帮助团队协作,创建虚拟世界和数

73、字孪生。的首要开发平台,帮助团队协作,创建虚拟世界和数字孪生。Omniverse基于物理性质,反映物理定律,它可以连接到机器人系统,并使用环路中的硬件进行操作,它采用生成式 AI 来加速创建虚拟世界,Omniverse 可以管理大型数据集,公司在每个领域都对 Omniverse 进行了重大更新。已有近 30 万名创作者和设计师下载了 Omniverse,Omniverse 不是一种工具,而是一个 USD 网络和共享数据库,也是一种与各行各业使用的设计工具相连接的基础结构。它可以连接、合成和模拟使用行业领先工具创建的 3D 资产,公司很高兴看到 Omniverse 生态连接的发展壮大,每个连接都

74、会将一个平台的生态系统与所有其他平台的生态系统连接到一起。Omniverse网络中的网络正在呈指数级增长,现已连接Bentley Systems LumenRT,还连接了Siemens Teamcenter、NX 和 Process Simulate、Rockwell Automation Emulate 3D、Cesium、Unity 等许多应用。图图 23:Omniverse 连接的应用连接的应用 资料来源:NVIDIA GTC,招商证券 Omniverse 在汽车领域的应用:在汽车领域的应用:我们来看看价值 3 万亿美元的汽车行业的数字化,了解汽车公司如何在其工作流中评估 Omniver

75、se。沃尔沃汽车公司和通用汽车使用 Omniverse USD Composer 连接和统一其资产工作流,通用汽车使用 Alias、Siemens NX、Unreal、Maya 和 3ds Max 将设计师、雕塑家和艺术家连接到一起,并将汽车零部件在虚拟环境中组装成数字孪生汽车,在工程和仿真中,他们在 Omniverse 中将 Powerflow 空气动力学可视化,对于新一代梅赛德斯奔驰和捷豹路虎汽车,工程师在 Omniverse 中使用 Drive Sim 生成,合成数据来训练 AI 模型,通过虚拟NCAP 驾驶测试验证主动安全系统,并模拟真实驾驶场景。Omniverse 的生成式 AI 将

76、以前驾驶的路线重构为 3D,以 敬请阅读末页的重要说明 20 行业简评报告 便重现或修改过去的体验。借助 Idealworks,宝马在 Omniverse 中使用 Isaac Sim 生成合成数据和场景,用来训练工厂机器人,Lotus 正在使用 Omniverse 以虚拟方式组装焊接站,丰田公司正在使用 Omniverse 构建自己工厂的数字孪生,梅赛德斯-奔驰使用 Omniverse 为新车型构建、优化和规划组装流水线,Rimac 和 Lucid Motors 使用Omniverse 根据真实的设计数据构建数字商店,这些数据准确地反映他们的汽车的状况。宝马正在使用 Omniverse 规划全

77、球近三十家工厂的运营,在实际工厂开业两年之前,他们会在 Omniverse 中完整建造一间新的电动汽车工厂。全球各行各业都在加速数字化发展,未来三年,该领域的投资金额将超过 3.4 万亿美元,宝马努力在汽车数字化领域处于领先地位。图图 24:汽车工厂应用示例:汽车工厂应用示例 资料来源:NVIDIA GTC,招商证券 借助借助 NVIDIA Omniverse 和和 AI,公司公司能够更快地建立新工厂,并更高效地进行生产,节省大量成本。能够更快地建立新工厂,并更高效地进行生产,节省大量成本。这一切都要从规划开始。这是一个复杂的过程,在此过程中,公司需要将许多工具,数据集和遍布全球的专家串联起来

78、。传统上,公司受到限制,因为数据在各种系统和工具中单独管理,如今,这种局面已经实现了全方位的改变。公司正在开发自定义 Omniverse 应用,以将现有的工具、专门知识和团队联系在一起,使其处在统一视图中。Omniverse 是云原生同时不限平台,可让团队随时随地在虚拟工厂中开展协作。Omniverse 是实现工业数字化的数字到物理操作系统,今天是实现工业数字化的数字到物理操作系统,今天公司公司要宣布推出三款专为运行要宣布推出三款专为运行 Omniverse 而设计的系统。而设计的系统。首先,公司将推出由 NVIDIA Ada RTX GPU 和英特尔的最新款 CPU 提供动力支持的新一代工作

79、站,这款新工作站非常适合用于光线追踪、物理仿真、神经图形和生成式 AI。从 3 月开始,Boxx、戴尔、惠普和联想将提供这款工作站;其次,针对 Omniverse 优化的新型 NVIDIA OVX 服务器,OVX 由服务器 GPU Ada RTX L40 和公司的新款 BlueField-3组成,OVX 服务器将由戴尔、HPE、Quanta、技嘉、联想和 Supermicro 提供,每一层 Omniverse 的堆栈包括芯片、系统、网络和软件在内都是新发明。构建和操作 Omniverse 计算机需要一个成熟的 IT 团队,公司将快速轻松地扩展和运用 Omniverse。敬请阅读末页的重要说明

80、21 行业简评报告 图图 25:NVIDIA 和英特尔支持的和英特尔支持的新一代工作站新一代工作站 图图 26:NVIDIA OVX 服务器服务器 资料来源:NVIDIA GTC,招商证券 资料来源:NVIDIA GTC,招商证券 Omniverse Cloud 应用示例:应用示例:全球大型行业竞相实现其物理流程的数字化,目前,这是一项复杂的任务。NVIDIA Omniverse Cloud 是一种平台即服务,支持即时安全地访问托管的 Omniverse Cloud API 工作流,以及在 NVIDIA OVX上运行的可定制应用,企业团队通过 Web 浏览器 Omniverse Launche

81、r 或通过自定义集成,访问托管服务套件,进入 Omniverse Cloud 后,企业团队可以立即访问、扩展和发布基础应用和工作流,以组装和构建虚拟世界,生成用于训练感知 AI 的数据,测试和验证自动驾驶汽车,或模拟自主机器人,从而访问共享数据,并将其发布到 Omniverse Nucleus,设计师和工程师在 RTX 工作站上使用他们惯用的第三方设计工具,并行发布对 Nucleus 的编辑,然后,当准备好在 Omniverse 中迭代或查看其集成模型时,只需打开 Web 浏览器并登录即可。随着项目和团队规模的扩大,Omniverse Cloud 可根据需要调配计算资源和许可证,从而优化成本,

82、新的服务和升级会自动获得实时更新。图图 27:Omniverse 模型模型 资料来源:NVIDIA GTC,招商证券 公司公司宣布推出宣布推出 NVIDIA Omniverse Cloud,这是一种完全托管的云服务。,这是一种完全托管的云服务。公司正在与 Microsoft 合作,将 Omniverse Cloud 引入全球各个行业,将在 Azure 中托管它,并通过 Microsoft 丰富的存储、安全性、应用和服务组合受益。公司正在将 Omniverse Cloud 连接到 Microsoft 365 生产力套件,其中包括 Teams、OneDrive、SharePoint,和 Azure

83、 IoT Digital Twins 服务。Microsoft 和 NVIDIA 正在将 Omniverse 带给数以亿计的 Microsoft 365 和 Azure 用户,加速计算和 AI 技术已经走进现实,开发者使用 NVIDIA 来提速和扩大规模,从而解决之前无法解决的问题。敬请阅读末页的重要说明 22 行业简评报告 图图 28:Omnicerse Cloud 支持功能支持功能 资料来源:NVIDIA GTC,招商证券 净零排放是一项艰巨的挑战,每家公司都必须加速所有工作负载以减少功耗,加速计算是一项全栈的数据中心级计算挑战,Grace、Grace-Hopper 和 BlueField

84、-3 是适用于超级节能加速数据中心的新芯片,加速库可解决新挑战,开辟新市场,公司更新了 100 个加速库,包括用于量子计算的 cuQuantum、用于组合优化的 cuOpt,以及用于计算光刻的 cuLitho,公司很高兴能与台积电、ASML 和 Synopsys 合作达到 2 纳米及更高精度制程。NVIDIA DGX AI 超级计算机是生成式大型语言模型取得突破的引擎,DGX H100 AI 超级计算机正在生产中,并即将通过全球不断扩大的 OEM 和云服务合作伙伴网络面世。DGX 超级计算机没有止步于研究,正在成为现代化的 AI 工厂,每家公司都将会制造智能,公司通过与 Microsoft A

85、zure、Google GCP 和 Oracle OCI 合作,借此扩展 NVIDIA DGX Cloud 的业务模式,通过一个浏览器就可以将 NVIDIA DGX AI 超级计算机即时地接入每家公司,DGX Cloud 为客户提供在 NVIDIA 和全球范围内都出类拔萃的 CSP。7、结语:、结语:AI 的的“iPhone 时刻”时刻”已来已来 我们我们正处于正处于 AI 的“的“iPhone 时刻”,生成式时刻”,生成式 AI 推理工作负载已进入超速运行状态。推理工作负载已进入超速运行状态。公司推出了新的推理平台:四种配置,一个体系架构,适用于AI视频的L4,适用于Omniverse和图形

86、渲染的L40,适用于扩展LLM推理的H100 PCIE,适用于推荐系统和向量数据库的 Grace-Hopper。NVIDIA 推理平台可最大化提高数据中心加速和弹性。NVIDIA 和 Google Cloud 正在合作部署广泛的推理工作负载,通过此次合作,Google GCP 成为了首款 NVIDIA AI云。NVIDIA AI Foundations 是一个云服务和代工厂,用于构建自定义语言模型和生成式 AI,NVIDIA AI Foundations包括语言、视觉和生物学模型制作服务。Getty Images 和 Shutterstock 正在构建自定义视觉语言模型,公司正与 Adobe合

87、作,为创造性的未来构建一系列新一代 AI 功能。Omniverse 是实现工业数字化的数字到物理操作系统,Omniverse可以统一端到端工作流,并将价值 3 万亿美元,拥有 1400 万员工的汽车行业数字化,Omniverse 正在跃上云端,公司在 Azure 上进行托管,与 Microsoft 合作,Omniverse Cloud 引入全球各个行业。敬请阅读末页的重要说明 23 行业简评报告 图图 29:NVIDIA 硬件与支持功能更新情况硬件与支持功能更新情况 资料来源:NVIDIA GTC,招商证券 敬请阅读末页的重要说明 24 行业简评报告 分析师分析师承诺承诺 负责本研究报告的每一

88、位证券分析师,在此申明,本报告清晰、准确地反映了分析师本人的研究观点。本人薪酬的任何部分过去不曾与、现在不与,未来也将不会与本报告中的具体推荐或观点直接或间接相关。鄢凡:鄢凡:北京大学信息管理、经济学双学士,光华管理学院硕士,14 年证券从业经验,08-11 年中信证券,11 年加入招商证券,现任研发中心董事总经理、电子行业首席分析师、TMT 及中小盘大组主管。11/12/14/15/16/17/19/20/21/22年新财富电子行业最佳分析师第 2/5/2/2/4/3/3/4/3/5 名,11/12/14/15/16/17/18/19/20 年水晶球电子2/4/1/2/3/3/2/3/3 名

89、,10/14/15/16/17/18/19/20 年金牛奖TMT/电子第 1/2/3/3/3/3/2/2/1 名,2018/2019 年最具价值金牛分析师。曹辉:曹辉:上海交通大学工学硕士,2019/2020 年就职于西南证券/浙商证券,2021 年加入招商电子团队,任电子行业分析师,主要覆盖半导体领域。王恬:王恬:电子科技大学金融学、工学双学士,北京大学金融学硕士,2020 年在浙商证券,2021 年加入招商电子团队,任电子行业分析师。程鑫:程鑫:武汉大学工学、金融学双学士,中国科学技术大学硕士,2021 年加入招商电子团队,任电子行业研究助理。谌薇:谌薇:华中科技大学工学学士,北京大学微电

90、子硕士,2022 年加入招商电子团队,任电子行业研究助理。评级评级说明说明 报告中所涉及的投资评级采用相对评级体系,基于报告发布日后 6-12 个月内公司股价(或行业指数)相对同期当地市场基准指数的市场表现预期。其中,A 股市场以沪深 300 指数为基准;香港市场以恒生指数为基准;美国市场以标普 500 指数为基准。具体标准如下:股票股票评级评级 强烈推荐:预期公司股价涨幅超越基准指数 20%以上 增持:预期公司股价涨幅超越基准指数 5-20%之间 中性:预期公司股价变动幅度相对基准指数介于 5%之间 减持:预期公司股价表现弱于基准指数 5%以上 行业评级行业评级 推荐:行业基本面向好,预期行

91、业指数超越基准指数 中性:行业基本面稳定,预期行业指数跟随基准指数 回避:行业基本面转弱,预期行业指数弱于基准指数 重要重要声明声明 本报告由招商证券股份有限公司(以下简称“本公司”)编制。本公司具有中国证监会许可的证券投资咨询业务资格。本报告基于合法取得的信息,但本公司对这些信息的准确性和完整性不作任何保证。本报告所包含的分析基于各种假设,不同假设可能导致分析结果出现重大不同。报告中的内容和意见仅供参考,并不构成对所述证券买卖的出价,在任何情况下,本报告中的信息或所表述的意见并不构成对任何人的投资建议。除法律或规则规定必须承担的责任外,本公司及其雇员不对使用本报告及其内容所引发的任何直接或间接损失负任何责任。本公司或关联机构可能会持有报告中所提到的公司所发行的证券头寸并进行交易,还可能为这些公司提供或争取提供投资银行业务服务。客户应当考虑到本公司可能存在可能影响本报告客观性的利益冲突。本报告版权归本公司所有。本公司保留所有权利。未经本公司事先书面许可,任何机构和个人均不得以任何形式翻版、复制、引用或转载,否则,本公司将保留随时追究其法律责任的权利。

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(英伟达-美股公司-GTC 2023跟踪报告:AI的iPhone时刻到来英伟达全力加速生成式AI发展-230323(24页).pdf)为本站 (外婆桥) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部