上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

量子位:2023 AIGC算力全景与趋势报告(41页).pdf

编号:133718 PDF   PPTX  41页 2.68MB 下载积分:VIP专享
下载报告请您先登录!

量子位:2023 AIGC算力全景与趋势报告(41页).pdf

1、AIGC AIGC 算算 力力 全全 景景 与与 趋趋 势势 报报 告告分析师:丁乔量子位智库 QbitAI Insights序序 言言2023年无疑是AIGC元年,ChatGPT引发的各类大模型竞赛中,行业内绕不开的一个话题便是算力从何而来。算力目前已经在AIGC产业内形成新共识算力成为AIGC发展的关键基石。随着英伟达今年一系列不断推陈出新的产品动作,可以看到国际上最先进的算力厂商如今已迈向由超级芯片组成的算力集群阶段。此外,算力厂商也无疑成为AIGC产业下的率先受益方。然而,随着大模型参数的不断增长,OpenAI近期表明算力成为其发展的挑战之一。在AIGC产业繁荣的当下,可以预见的是未来

2、对算力的需求会越来越大。那么,在这场AIGC盛宴中,应该如何应对当下面临的算力危机呢?在AIGC算力全景与趋势报告中,量子位智库将从我国算力产业现状、算力产业变革、趋势预判等角度出发,通过广泛调研与深度分析,全面立体描绘我国当前AIGC算力产业全景与趋势。我们期待,能够与众多投入、关注、期待中国AIGC算力产业的伙伴一起,共同见证并打造中国AIGC算力产业的蓬勃未来。AIGC驱动,算力产业机遇空前01020304目目 录录AIGC算力产业全景AIGC算力产业五新趋势AIGC算力产业周期预测05AIGC算力产业代表案例AIGC驱动,算力产业机遇空前01AIGC潮起,算力产业挑战巨大,机遇空前Op

3、enAI发布ChatGPT属于GPT系列中的聊天机器人模型。GPT系列中,GPT3是由1750亿参数组成的语言模型,而GPT4的参数更是达万亿级别。国内目前公布的大模型参数规模也普遍在百亿至千亿级别。如此庞大的参数规模,对于芯片提供商、云服务厂商以及服务器厂商都产生了新需求。全球范围内,GPT具备从底层改变各行业规则的能力,作为AIGC产业的基建,算力产业在未来有望成为一项公共服务渗透入各行各业。基于此,智算中心作为公共算力基础设施,成为AIGC基建中的关键环节。游戏规则被改写,MaaS能力成为竞争的关键变量云计算厂商 在算力需求暴涨、数据和模型资源稀缺、AI技术广泛落地背景下,智算中心成为地

4、区AI新基建智算中心大模型训练驱动AI服务器需求暴涨,并且正在催生新物种:AI模型一体机服务器厂商GPU为核心的AI训练芯片供不应求,是AIGC算力产业最大挑战和最大机遇芯片大模型参数量变化来源:Information is Beautiful芯片:大模型训练需求暴涨,GPU供不应求 需求当前大模型参数量在百亿至千亿参数规模,在训练阶段,对芯片的需求从CPU+加速器转变为以GPU主导的大规模并行计算。未来,当多数大模型参数规模到达万亿级别,将产生更大的算力需求。在单芯片性能之上,智算中心能够通过算力的生产-调度-聚合-释放,支持AI产业化发展。缺口目前市场对于英伟达芯片的需求远大于供给。经测算

5、,一万枚英伟达A100芯片是做好AI大模型的算力门槛。国内具备此量级的公司最多只有1家,而GPU芯片持有量超过一万枚的企业不超过5家。推理阶段(日常运营)ChatGPT 2023年2月官网总访问量 11亿次;用户每次与ChatGPT互动的云计算成本成为约0.01美元;保守预估,假设用户每次访问网站只进行一次互动训练阶段(单次成本)单次 GPT-3 Small(1.25亿)计算量 2.6PFlops/天 单次 GPT-3 XL 计算量为 27.5 PFlops/天 单次GPT-3(175B)计算量 3640 PFLops/天GPT3(175B)3640 PFLops:35000块 A100/1天

6、 或 1024块 A100 跑 1个月单次训练成本:1200万美元微调阶段预计算力1350.4 PFlops/天采用A100或V100设备算力需求13000块 A100/1天 或 433 块 A100 跑 1个月成本:920万/月芯片需求芯片需求芯片需求成本成本成本运营的算力成本:1100万美元/月来源:阿里公开资料,量子位智库整理服务器:业务增长显著,高端芯片AI服务器火爆 现状AIGC产业的发展将加剧AI服务器行业的增长速度,国产服务器厂商普遍业务增量在30%以上;国内市场中,服务器重新进入洗牌期。需求趋势由于AIGC对于高性能计算的需求,云厂商在服务器的选择上以AI服务器为主。据IDC数

7、据,2025年全球AI服务器市场规模将达317.9亿美元,年复合增长率为19%。英伟达GPU短期内面临产能不足问题,或将一定程度上限制AI服务器生产,从而影响出货量。0050060070080020212025E20中国中国AIAI服务器市场规模预测服务器市场规模预测市场规模(亿元)数据来源:IDC,量子位智库整理28.10%17.20%10.10%6.20%5.30%5.10%4.90%6.10%17.00%20222022年中国服务器市场份额占比年中国服务器市场份额占比浪潮信息新华三超聚变宁畅中兴通讯戴尔联想ODM Direct其他50%

8、50%云计算厂商:服务范式变革,MaaS带来新商业路径 范式转变MaaS成为云计算服务的新范式,云计算判别标准从算力能力转向云智一体的AI产品能力。成本自研芯片:根据 IDC 2018年服务器成本结构数据显示,高性能服务器中,芯片成本占比高达 50%83%;全球头部云厂商(谷歌、微软、腾讯等)为摆脱过于依赖芯片厂商的局面,均加大芯片自研力度。工具与平台文心大模型EasyDL-大模型零门槛AI开发平台BML-大模型全功能AI开发平台大模型API大模型套件数据标注与处理大模型精调大模型轻量化大模型部署国网-百度文心能源浦发-百度文心金融行业大模型NLP大模型医疗 ERNIE-Health金融 ER

9、NIE-Finance对话 PLATO搜索 ERNIE-Search信息抽取 ERNIE-IE跨语言 ERNIE-M图网络 ERNIE-Sage语言理解与生成ERNIE 3.0 鹏城-百度文心 ERNIE 3.0 Zeus (百亿级)(千亿级)(任务知识增强千亿级)CV大模型文档图像表征学习VIMER-StrucTexT商品图文搜索表征学习VIMER-UMS多任务视觉表征学习VIMER-UFO自监督视觉表征学习VIMER-CAE图文生成ERNIE-ViLG跨模态大模型文档分析ERNIE-Layout视觉-语言ERNIE-ViL语言-语言ERNIE-SAT地理-语言ERNIE-GeoL生物计算大

10、模型化合物表征学习HELIX-GEM蛋白质结构分析HELIX-Fold旸谷大模型创意与探索社区MaaS 产业结构图以百度文心为例企业方公共基建智能计算中心创新发展指南指出,在智算中心实现80%应用水平的情况下,城市/地区对智算中心的投资可带动人工智能核心产业增长约2.9-3.4倍,带动相关产业增长约36-42倍;未来80%的场景都将基于人工智能,所占据的算力资源主要由智算中心提供,智算中心将成为经济增长的新动力引擎。智算中心:基建级AI算力供应,打造地区经济增长新引擎阿里云张北超级智算中心、乌兰察布智算中心商汤科技人工智能计算中心百度智能云-昆仑芯(盐城)智算中心百度智能云(济南)智算中心腾讯

11、长三角(上海)人工智能先进计算中心腾讯智慧产业长三角(合肥)智算中心曙光5A级智算中心克拉玛依浪潮智算中心中国电信京津冀大数据智能算力中心中国联通广东 AI 智算中心全国超30座城市落地智算中心:北京、天津、河北、南京、无锡、宁波、杭州、武汉、沈阳、成都、哈尔滨、许昌、广州、宿州、乌镇、昆山、甘肃、长沙31.775155.2268427640.7922.81271.405009 2020 2021 2022 2023 2024 2025 2026百亿亿次浮点运算/秒(EFLOPS)来源:国家信息中心智能计算中心创新发展指南,IDC,量子位智库整理中国智能算力发展情况及预测

12、中国智能算力发展情况及预测AIGC算力产业全景02AIGC算力现状链路:芯片服务器云平台模型应用 外部:Azure云服务为ChatGPT构建了超过1万枚英伟达A100 GPU芯片的AI计算集群 内部:微软正在自研AI芯片雅典娜(Athena),将由台积电代工,采用5nm制程首个目标:为OpenAI提供算力引擎,以替代英伟达A100/H1001)Azure OpenAI 服务:企业级解决方案:借助 Azure OpenAI,用户可以汇总文本、获取代码建议、为网站生成图像等2)Microsoft 365 Copilot:使用了GPT-4作为其核心的LLM,将用户的自然语言输入转化为高效的生产力工具

13、,集成在Word、Excel、PowerPoint、Outlook、Teams等多个应用中以微软为例芯片资源微软是OpenAI唯一云服务提供商,为GPT训练提供计算资源、存储资源、自动化部署和管理等支持云基础设施平台Azure模型即应用(MaaS)专用芯片路线(Application-specific integrated circuit)通用芯片路线(Graphics processing unit)AI芯片目前有两大路线,一种是英伟达代表的GPU路线,更适合当前AIGC产业对大算力的需求,与AIGC大模型的训练及推理适配度极高。另一种路线则是以国内华为(主力产品)、寒武纪厂商为代表的专用A

14、I芯片路线,此路线下的芯片更适用于垂类小模型,为其提供能效比更高的芯片。此外互联网云厂商的自研芯片也是专用路线,芯片主要服务于自家产品,为自身产品打造性能更优的算力底座。芯片层现状:AIGC算力2大路线,GPU通用路线和AISC专用路线用来执行专门/定制化任务 专用场景中能够做到更优的能效比 跳出当前的已有生态,长期来看有可能实现真正超越优势局限 研发周期长、商业风险较大,产品易受市场变化影响 不易扩展,难以满足后续增加功能的需求能够完成多样化算力任务优势局限 擅长大规模并行计算 兼容英伟达生态,是最快也是最适用于当下的解决方案 在厂商被迫重复造轮子的前提下,追赶上英伟达的难度极高 芯片总体功

15、耗高服务器作为算力的载体,是AIGC基础设施的核心硬件。由于AIGC对于高性能计算的需求,云厂商在服务器的选择上以AI服务器为主。据IDC数据,2025年全球AI服务器市场规模将达317.9亿美元,年复合增长率为19%。AIGC产业的发展将加剧AI服务器行业的增长速度,国产服务器厂商普遍业务增量在30%以上;TrendForce日前发布预测,指出随着AI服务器与AI芯片需求同步看涨,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货量将接近120万台,年增38.4%,并将2022-2026年AI服务器出货量年复合增长率上调至22%。2022年,国内互联网大厂成为AI服务

16、器的最大买家;2023年,随着AIGC的爆发,根据业内消息,互联网厂商依旧是AI服务器的最大买方。服务器层现状:AI服务器成主要增长点,采购占比互联网客户为主1212.51313.51414.51515.5202220232023AI服务器出货量预测13%13%19%17%16%14%6.00%2%1.50%1.50%22.70%2022年AI服务器采购量占比微软谷歌MetaAWS字节跳动腾讯阿里巴巴百度其他数据来源:TrendForce,量子位智库整理大模型成为MaaS的基座,MaaS所打造的商业模式也是大模型厂商的主要变现模式基于大模型产生有实际应用价值的产品。MaaS模式最早由阿里提出,

17、随后互联网大厂、人工智能企业(如商汤)均已引入MaaS模式。此外,互联网大厂、华为等企业已经将自研芯片用于MaaS底座构建中。云厂商是MaaS的提出者,也是主要参与方。MaaS模式基于大模型,能够最大限度消除大型企业数字化过程中规模化、标准化壁垒,降低企业部署难度;对于C端用户来讲,MaaS可在不同层级里产生价值,有望为云计算厂商带来新增长曲线。云计算现状:MaaS重塑服务模式,新老玩家重构竞争力基础大模型行业模型垂直领域模型L0L1L2API或模型压缩行业数据大模型训练和微调成本高,下游用户开发难度高通过MaaS赋能AI渗透率较低的行业云计算厂商承担训练和微调成本,提供MaaS服务MaaS服

18、务提供商分时分次计费,按照用户的需求量核算投入产出从计算设备分布来看智算中心是对原有数据中心的升级,其提供的首要是AI算力。具体来讲,智算中心提供包括算力、框架、模型,以及支持应用场景具体的基础设施,将不同层级进行打包,通过本地化部署完成智算中心建设。相比于数据中心,智算中心更贴近应用和产业方。智算中心现状:地域发展差异明显,东数西算成算力调度关键北京、广东、浙江、上海、江苏在服务器和AI服务器市场中居前五,市场份额总计分别达到75%和90%(2021年数据)。从供给角度来看AIGC算力需求主要来源为京津冀地区、长三角及大湾区。目前智算中心多分布在东部和中部省份,而AIGC业务需要处理海量数据

19、导致东部算力资源成本过高。将大模型训练等对计算要求高的任务移至西部地区,形成“东数西训”,能够有效降低成本,实现算网资源综合成本最优。具体来讲,针对算力需求供需不平衡等问题,需要通过算力调度将东部的算力和数据处理需求转移至成本较低的西部地区。其中,优化东西部之间互联网络和枢纽节点间直连网络是提升算力调度水平的关键。从需求角度看内蒙古枢纽宁夏枢纽甘肃枢纽成渝枢纽贵州枢纽粤港澳枢纽长三角枢纽京津冀枢纽天府集群重庆集群庆阳集群和林格尔集群芜湖集群韶关集群贵安集群中卫集群张家口集群长三角生态绿色一体化发展示范区集群东数西算整体规划AIGC算力产业全景图MaaS层云计算平台服务器厂商计算类芯片通用芯片专

20、用芯片GPUCPUASICFPGA存储类芯片DRAMNANDNor FlashEEPROM3D NAND通义千问文心盘古日日新从容火山方舟言犀混元DSAAIGC算力产业五新趋势03机遇挑战芯片在AIGC算力产业中是最底层也是最关键的硬件产品。AIGC爆发,既是芯片厂商的一个重要分水岭,也将芯片厂商的目标重新聚焦于大算力方向。芯片作为算力直接来源,其发展逻辑是从应用端的需求出发,根据应用端所需要的算力特点提供相应的算力服务。在ChatGPT相关大模型爆发之前,国内芯片厂商一方面在做GPU布局,另一方面更多在满足垂直行业中的特定需求,且后者在国内市场更常见。此外,国产GPU厂商的设计初衷也多是按照

21、推理芯片设计。在AIGC爆发后,对芯片的需求集中在训练侧,并且对于训练芯片的算力要求极高,目前只有英伟达能够满足。然而,OpenAI 表示目前英伟达的产能已无法满足其更高的算力需求。未来,随着大模型参数量不断攀升,以及芯片制程走到尽头等问题,对于算力的定义将从单芯片性能逐渐转向超算/智算集群的计算能力。背景:算力供给趋于复杂,大规模运算需要系统级工程支撑国产处理器厂商的挑战与机遇 目前在高端AI芯片中,英伟达占据绝对优势,而英伟达的高端系列在中国只有存量没有增量。在芯片代工层面,目前优于7nm制程工艺没有对应的国产代工厂可以承接。硬件 业内普遍认为国产芯片在10年内很难突破英伟达的CUDA生态

22、。软件市场将给予国产GPU厂商更多机会。国产GPU厂商可选择成熟制程+先进封装的方案来达到与英伟达近似的性能指标。在服务器集群层面,通过高速互联技术实现高性能计算。目前国产芯片厂商采用两种路径:1)兼容CUDA生态;2)构建自身生态短期来看,兼容CUDA生态的厂商更适合为通用大模型提供算力。对于构建自身生态的厂商来说,其产品更适用于垂类小模型。趋势01新机遇:芯片竞逐高性能大算力,引入新计算架构大模型不同阶段对应不同的芯片需求需求方变化对芯片回归到最原始的需求模型需要大算力支持突破芯片算力性能硬件层面AI芯片厂商存算一体架构通过减少/消除数据搬运,降低功耗亿铸科技、后摩智能、知存科技等GPU厂

23、商GPU+片间互联实现大规模并行计算海光信息、燧原科技等软件/算法层面AI芯片厂商稀疏计算通过减少计算量,降低成本墨芯人工智能高性能网络RDMA互联高带宽接入,提升通信性能,缩短训练时长腾讯云星脉网络大模型训练阶段 芯片类型:GPU为主 芯片需求:执行大量矩阵运算和计算密集任务 GPU优势:高并发和浮点计算能力,可大幅提升训练速度 GPU劣势:功耗高、成本高大模型推理阶段 芯片类型:ASIC/FPGA/NPU与GPU均可 芯片需求:低延迟、低功耗(专用芯片更符合)专用芯片优势:更高的能源效率和计算密度 专用芯片劣势:缺乏通用性供给方变化技术趋势AI大模型对算力需求呈指数级增长,使得具有更高配置

24、的AI服务器成为AIGC算力的主要载体。相比于传统服务器,AI服务器的计算、存储以及网络传输能力能达到更高的水平。例如,NVIDIA DGX A100服务器 8 个 GPU+2 个 CPU 的配置远高于传统服务器 12 个 CPU 的配置。智算中心作为提供算力资源的公共基础设施平台,其算力机组以AI训练服务器和AI推理服务器为主。随着大模型训练阶段完成,未来AI服务器的主要需求将向推理侧转移。根据IDC的预测,到2026年,AIGC的算力62.2%将作用于模型推理。趋势02新增长曲线:AI服务器异军突起,红利曲线先训练后推理48.5%42.4%41.5%40.5%39.3%38.2%37.8%

25、51.5%57.6%58.5%59.5%60.7%61.8%62.2%0%20%40%60%80%100%20202022420252026中国AI服务器工作负载预测训练推理数据来源:IDC,量子位智库整理31.775155.2268427640.7922.81271.402004006008000200222023202420252026中国智能算力规模及预测单位:百亿亿次浮点运算/秒(EFLOPS)MaaS(模型即服务):在算力、算法和应用层中嵌入大模型,以智能底座集成应用并统一对外输出。MaaS的本质是将行业内通用的基础技

26、术提炼整合成服务,满足各类应用场景需求;云计算服务能力的判别式从算力水平转向云智一体能力,在算力基础设施之外,核心竞争力变为把算力、模型和场景应用打造成标准化产品的能力。趋势03新游戏规则:MaaS重塑云服务范式,AIGC商业模式闭环付费使用接口,直接调用基础模型,基于不通过行业的数据进行fine-tune,形成垂直大模型,更多面向B端市场多样化应用开发,更多面向C端市场C端市场商业模式:软件订阅B端市场盈利模式:按需计费,根据实际计算量收费商业化路径数据仓库算力平台模型仓库模型使用模型体验模型定制云端模型部署AI 开发者AI 研究者AI 使用者AI 爱好者 大模型基础能力趋势04新物种:AI

27、模型一体机呼之欲出,传统产业开箱即用传统行业构建AIGC产品的痛点数据模型算力内外部数据流通中难以确权构建自身模型难度大算力资源紧缺AI模型一体机云服务厂商在硬件和软件层面完成系统级工程、调试测试环节,最后在用户侧可以直接使用的AI模型一体机。对于数据安全性敏感的行业,通过AI模型一体机,完成模型+服务器的一体化部署,能够保证数据的安全。确保算法模型部署到服务器上并能高效运行用户开箱即用硬件类(服务器)云厂商互联网云厂商主要参与方优势具备通用大模型能力劣势硬件能力优势硬件部署能力,如何让模型在服务器上运行效率达到最高劣势软件算法能力以及大模型研发能力框架与平台基础系统服务器算力支撑CentOs

28、麒麟Loongnix统信中科方德普华国内外主流操作系统英特尔飞腾龙芯申威兆芯鲲鹏国内外主流CPU芯片海光英伟达昆仑寒武纪比特大陆昇腾国内外主流AI加速芯片海光飞腾版通用版2U机型飞腾版通用版4U机型飞桨深度学习平台模型加密代码加固可信授权主机防护安全能力百度智能云 飞桨一体机-产品架构生产算力聚合算力调度算力释放算力趋势05新基建:智算中心护航AIGC运营,算力租赁模式成新解算力租赁模式可以有效降低大模型研发门槛,对于研发垂类行业的小模型企业来说,没有购买足够AI服务器的实力,公共算力基础平台将帮助中小型企业搭建其自身所需模型。企业无需购买服务器,通过浏览器便可访问算力中心,并使用算力服务。对

29、于中小企业来讲,无需依赖云厂商所构建的大模型底座进行二次开发,而是通过租用公有算力平台的算力资源,研发垂类行业小模型。大模型训练推理过程消耗大量算力资源,成本高昂中小企业有模型研发需求,但无法承担高昂的算力成本算力平台向B端用户直接销售算力国内:1)在建及投入使用的智算中心2)云厂商单独租赁国外:以英伟达为代表的超级计算机,目前已建成5座AI工厂GraceCPUHopperGPUsuperchipsuperchip国内:智算中心完成系统级工程AI算力一体化交付流程算力供需失衡的前提下,算力租赁有望成为行业内供给侧的最优解国外:英伟达DGX Cloud模式NVLink-C2C900 GB/s算力

30、租赁平台DGX Cloud8个Ampere A100或Hopper H100旗舰HPC加速器,每个节点共有640GB显存每月3.7万美元AIGC算力产业周期预测04一个周期三个阶段:基建期、开发期,商业期AIGC基建期0 0-2 2年年AIGC开发期3 3-5 5年年AIGC商业期5 5年以上年以上自研芯片能力集成创新能力更具竞争力的企业具备两项能力率先受益方:算力基础服务提供方大模型持续迭代的能力算法、算力、数据、知识服务器厂商大模型厂商制胜点技术创新型公司迎来红利存算一体光子芯片类脑芯片功耗成本计算效率优势国内国外GPU厂商竞争要素 高性能芯片数量 计算集群建设能力 算力大小 带宽大小AI

31、GC基建期:2023年2025年在初期阶段,高性能GPU厂商将成为最大收益方;同时,AI服务器厂商是此阶段的强势供给方。目前,AI服务器领域已经出现供不应求的局面全球范围内,OpenAI的GPT初步实现智能涌现,其背后的算力支撑是英伟达高性能GPU。在追赶GPT的过程中,需要大模型企业在短时间内完成模型的训练过程。因此,在AIGC初期阶段,大模型研发企业不会考虑除英伟达之外的芯片作为训练阶段的芯片。核心点英伟达掌握行业绝对话语权英伟达拉动下游代工厂业务,二者成为AIGC基建期的关键奠基者 AI服务器需求保持持续、稳定增长,国内服务器厂商率先受益 算力网络建设是智算中心运营的关键,算网运营商在算

32、力网络建设中为主导方需求端供给端训练速度为王智算中心加快建设英伟达芯片高性能计算集群充足短缺算力网络气泡大小代表规模AIGC开发期:2026年2028年在中期阶段(5年内),推理芯片将成为主要需求方。相比于GPU的高算力高功耗以及对应的算力浪费,推理芯片更注重芯片的算效比,对于功耗和成本有更优的把控。此外,这个阶段也会是创新型芯片的机会。分析师预计存算一体芯片、类脑芯片、硅光芯片将有更多市场机会。中期阶段AIGC市场将呈现收敛趋势,从百花齐放到逐步淘汰,此阶段主要是模型层公司之间的淘汰战。在此阶段,AI服务器厂商的红利期逐渐见顶,智算中心与超算中心走向融合;芯片也从GPU转向NPU/ASIC/

33、FPGA/CPU等多种形式并存。创新型芯片路线中,看好存算一体架构的发展。核心点推理类芯片占比上升,芯片需求趋于多元化智算超算中心融合,满足多样需求大模型由训练阶段过渡到推理阶段,企业更加注重降低算力成本,对于功耗高的GPU集群,企业趋向寻求替代方案能效比更高的芯片将迎来机会点智算中心在满足人工智能业务的基础上,为了覆盖更多业务需求,将逐步与超算中心走向融合需求成熟度技术成熟度存算一体芯片类脑芯片硅光芯片稀疏计算气泡大小代表规模中期阶段,具备底层创新能力的芯片厂商有望成为最大获益方AIGC商业期:2028年后后期阶段(10年内)将在应用端呈现出百花齐放的趋势;届时,AIGC应用将呈现出类app

34、模式,出现各类细分领域的应用程序,通过模型层提供的API接口来发展各自的应用程序。此阶段,大众层面几乎不会感知到算力问题。核心点AIGC应用爆发,算力感知弱化,AIGC算力成为公共资源需求成熟度商业模式成熟度算力租赁模型一体机MaaS气泡大小代表规模AIGC算力层的新商业模式趋于成熟,业务量与下游应用需求成正比垂类模型使得算力租赁和MaaS具备更优的商业前景后期阶段,算力租赁有望成为算力平台最具规模的盈利模式AIGC算力行业案例集05阿里巴巴模型社区模型开发平台模型服务 国内最活跃的模型社区,提供丰富的预训练SOTA模型、多元数据集和模型知识库 开源Python package,统一模型接入接

35、口 交互式建模与可视化建模 支持万亿参数级模型训练 单任务集群规模可达万卡GPUPAI 机器学习平台 提供灵活、易用的模型API接口与SDK 自适应推理优化与高效微调训练 基于云底座的多区域弹性伸缩能力依托于云,提供高效可靠的服务提供模型不同阶段需要的平台服务阿里云底座以模型为中心,打造MaaS平台服务2022年,阿里云在国内首倡MaaS(Model as a Service,模型即服务)理念,提出以AI模型为核心的开发范式,并搭建了一套以AI模型为核心的云计算技术和服务架构,积累了丰富的大模型研发经验、工具和平台,这套能力将全部向大模型初创企业和开发者开放,提供包括模型训练、推理、部署、精调

36、、测评、产品化落地等的全方位服务。百度国内首个全栈自研的AI基础设施:百度智能云跨越芯片层、框架层、模型层、应用层四层,实现端到端的云智一体全栈AI设施,其中包含自研AI芯片昆仑,自研的深度学习框架和平台,自研的AI大底座,自研的大模型和深入千行百业的垂直行业应用。端到端优化带来实际效果的显著提升:云智一体四层结构互相反馈和相互适配,全栈且深度融合带来的端到端优化,在大模型的训练和推理上均带来了更多的效果提升,具有显著优势。基础云基础云昆仑芯昆仑芯飞桨飞桨文心大模型文心大模型高速互联模型管理GPU虚拟化AI作业调度弹性训练加速套件数据标注部署运行模型开发AI服务器知识生产知识管理能源金融航天媒

37、体行业与应用行业与应用AI大底座沉淀增强支撑提效90%+90%+100%+100%+70%+70%+千卡加速比资源利用率开发效率提升智慧能源智能制造 智慧金融智慧城市智慧交通AI数字人AI质检智能客服网盘腾讯MaaS客户专属大模型细分领域模型训练平台应用平台智能应用行业大模型精调解决方案TI-OCR训练平台媒体AI中台数智人TI-AOI训练平台智能视频分析平台AI语音助手(车载/家居)TI平台平台&工具TI-DataTruth 数据标平台TI-ONE 训练平台TI-Matrix 应用平台太极Angel加速组件技术底座行业大模型金融大模型政务大模型文旅大模型传媒大模型教育大模型基础设施高性能计算

38、集群HCC高性能网络:自研星脉计算网络架构向量数据库腾讯云MaaS全景图高性能计算集群(Tencent High-Performance Computing Cluster,THCC)以高性能云服务器为节点,通过 RDMA(Remote Direct Memory Access)互联,提供了高带宽和极低延迟的网络服务,大幅提升网络性能,能满足大规模高性能计算、人工智能、大数据推荐等应用的并行计算需求。腾讯云新一代HCC(High-Performance Computing Cluster)高性能计算集群,采用腾讯云星海自研服务器,搭载英伟达最新代次H800 GPU,服务器之间采用业界最高的3.

39、2T超高互联带宽,为大模型训练、自动驾驶、科学计算等提供高性能、高带宽和低延迟的集群算力。腾讯高性能计算集群为MaaS提供充沛算力。高性能计算集群应用场景大规模AI训练工业仿真生命科学科研教育华为CANN异构计算架构 Ascend C 编程语言|1400+高性能算子|6大算子库|基础加速库|MindX 昇腾应用使能 深度学习使能|智能边缘使能|优选模型库|行业SDK AI框架深度学习平台讯飞火石平台招行AI平台星河AI平台联通AI平台 昇腾训练解决方案 昇腾推理解决方案框架适配能力支持PyTorch、TensorFlow、飞桨等业界框架插件化Adapter动态Shape能力消除算子编译时间性能

40、满足场景需求二进制算子库算子开发能力C/C+编程规范结构化核函数编程方式Ascend C编程语言AI基础硬件昇腾AI系列硬件演进版本快速适配3个月1个月动态Shape算子满足度70%95%提升整网性能,并在CV、NLP等典型场景性能领先算子开发周期2人月2人周已支持运营商、互联网等客户多个自定义大Kernel开发昇腾聚焦AI基础软硬件,分层开放,促进行业智能升级算力是训练大模型的基础。华为在最底层构建了以鲲鹏和昇腾为基础的AI算力云平台,以及异构计算架构CANN、全场景AI框架昇思MindSpore,AI开发生产线ModelArts等,为大模型开发和运行提供分布式并行加速、算子和编译优化、集群

41、级通信优化等关键能力。基于华为的AI根技术,大模型训练效能可以调优到业界主流GPU的1.1倍。昇腾AI云服务除了支持华为全场景AI框架昇思MindSpore外,还支持Pytorch、TensorFlow等主流AI框架。行业解决方案中科曙光多模态大模型人工智能算力基础设施人工智能算力基础设施互联网交通媒体能源通信医疗行业大模型行业大模型金融计算机视觉计算机视觉图文搜索多任务视觉表征学习自监督视觉表征学习AI for ScienceAI for Science化合物表征学习蛋白质结构分析自然语言处理自然语言处理对话搜索信息抽取跨语言图网络跨模态跨模态图文生成文档分析+通用通用CPUCPU通用通用G

42、PUGPUNPUNPUAIAI算力集群算力集群算力服务平台算力服务平台5A5A级智算中心级智算中心目前已完成包含GPTGPT系列系列LLaMALLaMA系列系列GLMGLM系列系列ERNIEERNIE系列系列同等条件下大模型训练效率及训练稳定性显著提升30+30+国内外主流大模型适配及孵化深度优化服务深度优化服务算法级优化编译级优化运行级优化硬件级优化代码级优化全精度算力供给全精度算力供给数值模拟AI训练AI推理生态开放包容生态开放包容兼容主流软件生态兼容国内外各类芯片全国算力服务全国算力服务跨区域调度多任务调度计算资源存储资源网络资源软件资源应用资源产业资源中科曙光基于在智能计算领域的深耕,

43、构建了完备的异构智能算力技术体系,实现了包含核心部件、整机、计算系统在内的诸多突破,打造了开放通用的算力底座。此外,还积极协同产学研用,孵化场景化解决方案,推动AI技术的实际应用和落地。Network Sparse Optimization Sparse OPTSOLA RuntimeSparse RTCodecContainer ToolkitVirtualization ToolboxSOLA SEAL(KMD&UMD)SDKDriverAntoum芯片AI计算卡系列S4S4S10S10S30S30主流框架主流框架操作系统操作系统服务器平台服务器平台支持Ubuntu CentOS等主流版本

44、;欧拉、龙蜥、麒麟等国产操作系统适配浪湖、新华三等主流服务器厂商X86 服务器平台,飞腾为代表的Arm 服务器平台支持模型支持模型200+200+支持算子支持算子100+100+视觉语音自然语言处理多模态ResNet-50,YOLO v3,YOLOv5.FastSpeech,Conformer.BLOOM,BERT,T5,GPT.CLIP.算子涵盖大部分常见模型,并支持客户定制算子互联网运营商生命科学自动驾驶金融制造物联网智慧城市文本生成音频生成图像生成视频生成跨模态生成代码生成加速AIGC应用支撑大模型行业落地适用于各类型AI任务与模型全方位生态兼容软硬协同AI计算平台墨芯人工智能随着AI大

45、模型参数的日益攀升,稀疏计算已成为公认的AI发展必然趋势,从根本上解决大模型发展与算力的矛盾。墨芯人工智能通过核心的稀疏计算技术建立起深厚优势,成为AIGC时代具有代表性的算力企业:率先基于原创的双稀疏算法,推出新一代AI计算平台,在算力、功耗、能效比等方面实现大幅优化,缓解大模型的高算力需求、高功耗、高费用等痛点,带来“多赢”的效果;并且在大模型算力的相关技术、产品、商业落地等方面,均已取得积极进展。技术:独创双稀疏算法,并率先将稀疏化算法与硬件结合落地技术:独创双稀疏算法,并率先将稀疏化算法与硬件结合落地推出全球首颗高倍率稀疏芯片推出全球首颗高倍率稀疏芯片AntoumAntoum,支持高达

46、,支持高达3232倍稀疏倍稀疏:将此前的业界纪录提升16倍。产品:屡获产品:屡获MLPerfMLPerf冠军,性能位居行业领先冠军,性能位居行业领先基于Antoum芯片的墨芯AI计算卡产品,在国际权威基准测评MLPerf中连续两届连续两届获得冠军获得冠军,并在MLPerf3.0中获得双料冠军获得双料冠军。应用:支持千亿参数大模型,实现高吞吐、低延时,表现优异应用:支持千亿参数大模型,实现高吞吐、低延时,表现优异在在13001300亿参数的亿参数的GLMGLM-130B130B大模型上,仅用大模型上,仅用8 8张墨芯张墨芯S30S30计算卡,吞吐达计算卡,吞吐达432 432 token/sto

47、ken/s,为AIGC大幅加速。应用范围广应用范围广:支持 BLOOM、OPT、GPT-X、LLaMA、StableDiffusion等主流大模型。高算力,低功耗,助力降本增效高算力,低功耗,助力降本增效:有效缓解AI企业的算力基础设施与运营成本高昂等难题,为企业拓展AIGC应用和业务提供强大算力支持。商业落地:实现量产,多领域落地商业落地:实现量产,多领域落地产品已在互联网、交通、生命科学领域成单落地产品已在互联网、交通、生命科学领域成单落地:同时适用于运营商、金融、制造、医疗、能源、自动驾驶等众多行业与场景,获得市场认可。全面赋能大模型行业落地与AIGC等应用墨芯人工智能墨芯人工智能稀疏计

48、算引领者稀疏计算引领者天数智芯天数智芯是中国领先的通用GPU高端芯片及超级算力系统提供商。作为国内拥有云边协同、训推组合的完整通用算力系统全方案提供商,其系统架构、指令集、核心算子、软件栈均为自主研发,可独立发展演进。天数智芯已与国内重要行业合作伙伴携手,从源头对设计进行定义,率先实现大规模商业化量产,产品开发和商业应用进度领先国内同行。应用层AI|深度学习 FFT|高性能 数字孪生K8S OpenStackiXStreamIGIE推理性能分析设备管理DNN FFT BLAS国产架构指令集优化加速 支持多种开发语言User Mode Driver Kernel Mode DriverX86 A

49、RM框架层加速库编译器驱动层处理器池化层流融合天数智芯软件栈天数智芯软件栈生态兼容生态兼容云平台灵雀云、DAOClooud、联想云计算、iStation、天翼云、时速云、观测云算法框架PyTorch、TensorFlow、飞桨、计图、ONNXOSCentOS、ubuntu、银河麒麟、统信、OpenEuler、OpenAnolis服务器市场主流服务器CPU芯片市场主流CPU通用通用GPUGPU训练产品训练产品天垓天垓应用广泛性能可预期全栈可定制开发易迁移通用通用GPUGPU推理产品推理产品智铠智铠计算性能高应用覆盖广使用成本低与市场主流产品相比,实现2 2-3 3倍实际使用性能提升支持200余种

50、人工智能模型基于通用GPU架构适配主流CPU/服务器厂商本地团队根据客户需求提供定制化服务摩尔线程摩尔线程是一家以全功能GPU芯片设计为主的国家高新技术企业,能够为科技生态合作伙伴提供强大的计算加速能力,致力于打造为下一代互联网提供多元算力的元计算平台。摩尔线程基于图形计算、人工智能计算,打造了第一款AIGC内容生成平台摩笔马良支持中英双语,以及支持在简笔画、照片、真实画作、AI画作等多种模式输入下的图文生成、图文编辑,为用户提供零门槛的创作平台,促进用户自由创新表达。基于AI+Graphics的智能内容创作(AIGC)平台丰富功能丰富功能简单易用简单易用软硬一体软硬一体中英文图文生成、图文编

51、辑、图像超分、简笔画创作、视频生成等零创作门槛和MUSA架构深度集成优化画作赏析画作赏析视拓云视拓云团队的前身是中科院计算所山世光老师创建的中科视拓 SeeTaaS 部门,从2017年开始专注 C 端云计算市场和算法社区的研发和运营,面向“大 AI 圈”内的科研工作者和科技企业,运营 AI 算力服务平台 AutoDL.com 和算法社区 CodeWithGPU.com。产品介绍产品介绍AutoDL.com是一个算力互联网平台,面向“大 AI 圈”内的科研工作者和科技企业,提供弹性、省钱、好用的普惠 AI 云算力服务。AutoDL 整合了来自全国各地的不同IDC、运营商和云计算厂商的高性价比算力

52、,共有超10个型号的7000多片 GPU 和国产 AI 加速芯片。自2021年10月公测至今,伴随着生成式 AI 和东数西算的红利,AutoDL 实现了快速增长,仅根据开票数据统计,AutoDL服务了130所985、211、双一流高校和300多所其他高校,超过400家企业,以及10万+个人开发者,是目前全国最大的 C 端 AI 算力入口之一。目前,AutoDL正在形成AI开发者社区CodeWithGPU.com 和以大模型训练/AIGC推理为特色的中立算力交易平台(整合国家东数西算算力节点)。1.弹性弹性弹性充分发挥容器相比虚拟机高效、性能损失小的优势,结合灵活弹性的按量计费方式、零成本升降配

53、置等产品设定,使得AutoDL 在架构本身、计费方式功能上都极具弹性。2.省钱省钱省钱基于 GPU 算力应用场景的特点,以高配置主机、独占算力提升核心体验,精简非必要组件、共享高成本资源降低服务成本使 AutoDL 成为好用不贵的GPU 云算力平台。3.好用好用站在科研工作者和科技企业的角度提供好用的功能,比如:打通CodeWithGPU.com 使得便利的分享或使用镜像和模型;团队子账号管理;接口调用AIGC弹性部署等。在弹性、省钱的同时,还有很好的用户体验。曾服务某 AI 生成 LOGO 用户,在短短三天内提供了 800+卡3090+A5000 的混合 GPU 资源池,帮助用户成功应对了社

54、区裂变带来的流量高峰,保证了终端客户的用户体验。特点特点案例案例亿铸科技亿铸科技致力于基于新型存储器 ReRAM 研发存算一体AI大算力芯片,是全球首家基于存算一体超异构创新架构,面向数据中心、云计算、自动驾驶、中心侧服务器等场景的 AI 大算力芯片公司。初代产品基于传统工艺制程,可实现500-1000T单卡算力。应用场景(部分)应用场景(部分)大模型数据中心金融教育中心侧边缘侧自动驾驶特种车辆无人机智能数改工业检测安防超分辨率智慧交通亿铸科技亿铸科技存算一体架构创新消除存储墙 减少能耗墙 降低编译墙ReRAM新型忆阻器应用创新非易失性|读写速度快|稳定性强功耗低|CMOS工艺兼容|密度极大

55、高低阻值差异大|成本优势|微缩化发展工艺成熟,可量产出货高精度大算力超高能效比将存算一体在大算力真正落地全数字化技术路径应用创新存算一体超异构系统级创新有效算力更大更大 放置参数更多更多 能效比更高更高 软件兼容性好好发展天花板更高更高清微智能清微智能是可重构计算(CGRA)领导企业,全球首家也是出货量最大的可重构计算芯片商用企业。核心团队来自于清华大学以及海思、英伟达、苹果、AMD等知名企业,专注于可重构计算芯片的创新研发和产业应用,面向云端训推一体,边端自动驾驶,安防监控等智能计算场景,提供高性能算力支持,致力于打造自主可控的可重构通用计算生态。TX8系列TX5系列TX2系列产品简介中算力

56、CGRA 高性能端侧/边缘AI芯片产品亮点CGRA可重构网络引擎,CGRA通用计算引擎高能效比,图像处理性能超海思等同类芯片2-6倍,面积效率较国际顶级IP产品1.4-4倍可重构ISP、CV、GPU、DSP可重构技术验证多核拓展技术高能效通用处理产品简介产品亮点可重构技术验证大算力CGRA 高性能云端训推一体芯片以国内相对成熟工艺实现国外先进工艺下顶级性能同算力下功耗价格有数倍优势时空域数据流拓展技术跨芯片边界互联产品简介产品亮点可重构技术验证小算力CGRA高性能AIOT芯片CGRA可重构计算引擎,超低功耗可穿戴,能效比为传统音频DSP2-5倍以上 可重构编译技术 高能效AI处理微信号:Qbitbot020量子位智库小助手关于量子位智库:关于量子位智库:量子位旗下科技创新产业链接平台。致力于提供前沿科技和技术创新领域产学研体系化研究。面向前沿AI&计算机,生物计算,量子技术及健康医疗等领域最新技术创新进展,提供系统化报告和认知。通过媒体、社群和线下活动,基于专题技术报道及报告、专项交流会等形式,帮助决策者更早掌握创新风向。关于量子位:关于量子位:量子位(QbitAI),专注人工智能领域及前沿科技领域的产业服务平台。全网订阅超过500万用户,在今日头条、知乎、百家号及各大科技信息平台量子位排名均为科技领域TOP10,内容每天可覆盖数百万人工智能、科技领域从业者。

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(量子位:2023 AIGC算力全景与趋势报告(41页).pdf)为本站 (蓝色烟花) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
小程序

小程序

客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部