上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

ODCC:运营商智能网卡需求场景白皮书(2022)(23页).pdf

编号:98696 PDF 23页 1.30MB 下载积分:VIP专享
下载报告请您先登录!

ODCC:运营商智能网卡需求场景白皮书(2022)(23页).pdf

1、1运营商智能网卡需求场景白皮书ODCC-2022-05002分布式存储技术与产业分布式存储技术与产业分析报告分析报告编号 ODCC-2022-05002运营商智能网卡需求场景白皮书开放数据中心标准推进委员会开放数据中心标准推进委员会2022-04 发布发布I运营商智能网卡需求场景白皮书ODCC-2022-05002版权版权声声明明ODCC(开放数据中心委员会)发布的各项成果,受著作权法保护,编制单位共同享有著作权。转载、摘编或利用其它方式使用 ODCC成果中的文字或者观点的,应注明来源:“开放数据中心委员会 ODCC”。对于未经著作权人书面同意而实施的剽窃、复制、修改、销售、改编、汇编和翻译出

2、版等侵权行为,ODCC及有关单位将追究其法律责任,感谢各单位的配合与支持。II运营商智能网卡需求场景白皮书ODCC-2022-05002编制说明编制说明本报告由中国移动通信研究牵头撰写,在撰写过程中得到了多家单位的大力支持,在此特别感谢以下参编单位和参编人员:参编单位(排名不分先后):中国移动通信研究院、中国电信研究院、锐捷网络股份有限公司、中兴通讯股份有限公司、华为技术有限公司、弘协网络科技(北京)有限责任公司参编人员(排名不分先后):王瑞雪,秦凤伟、吴林泽、吴航、阎松明、赵宝鑫、郭力军、刘红巧、曾宏宽项目经理:王瑞雪 III运营商智能网卡需求场景白皮书ODCC-2022-05002前言前言

3、数据中心作为数字经济领域基础设施,成为 5G、人工智能、大数据等新兴信息技术应用的核心载体。算力时代,数据中心从聚集业务弹性伸缩灵活部署向聚焦超大规模、多样性的数据处理转变,提升单位时间单位能耗下的运算能力及质量成为核心诉求。业务快速发展驱动数据中心网络向高带宽和新型网络协议发展,数据增长驱动网卡端口速率从 10G快速向 25G和 100G+演进,由于摩尔定律放缓,CPU算力增长无法匹配 IO 数据带宽增长的需求。同时边缘计算及虚拟化技术的发展不断驱动运营商核心设备云化部署,给算力资源处理效率带来巨大挑战。由于CPU不适合处理大量并行固定模式的计算,导致算力资源消耗与网络及业务性能提升难成比例

4、,将这些服务卸载在专用硬件的需求迫在眉睫。网卡作为连通算力资源和网络的核心部件,成为最理想的卸载位置。智能网卡是一种专注于加速网络、存储、安全等业务的专用处理器,除具备标准网卡的数据转发能力外,还引入网络加速、硬件卸载以及可编程能力,支持将不适合主机 CPU处理的高性能数据处理卸载到硬件芯片执行,提升业务处理性能,充分释放算力资源。由于时间仓促,水平所限,错误和不足之处在所难免,欢迎各位读者批评指正。如有意见或建议请联系 。IV运营商智能网卡需求场景白皮书ODCC-2022-05002目录目录版权声明.I编制说明.II前言.III一、智能网卡产业现状分析.1(一)智能网卡类型.1(二)智能网卡

5、产业及应用情况.2二、运营商引入智能网卡场景分析.3(一)OVS 卸载.3(二)弹性裸金属.5(三)存储卸载.6(四)虚拟网元业务加速.71 vDPI.82 vFW.83 vLB.9(五)高性能无损网络.11(六)端到端可视化运维能力卸载.12三、总结与展望.13(一)标准化现状及推进思路.13(二)国产化现状及推进思路.14(三)业务需求差异性与网卡通用性的取舍博弈.14四、参考文献.15V运营商智能网卡需求场景白皮书ODCC-2022-05002五、缩略词.16一、一、智能网卡产业现状分析智能网卡产业现状分析智能网卡经过多年探索与实践,应用场景及产业发展前景已逐渐清晰,但智能网卡的技术架构

6、仍然处在发展完善之中,包括上游的芯片厂家推出不同芯片解决方案,中游的智能网卡厂家针对不同的应用场景开发了不同的智能网卡产品,提出了在不同场景下的解决方案。(一)(一)智能网卡类型智能网卡类型智能网卡一方面受计算平台芯片产业发展的影响,另一方面也受到智能网卡市场需求推动,目前衍生了不同的技术架构。其中主要有 SoC、FPGA、NP、ASIC 四种基本类型。SoC:SoC 是广泛采用多核 CPU 片上系统,具有较高的性价比和非常强的编程灵活性,但存在功耗高、转发性能低的劣势。SoC 提供了性能和可操控性的平衡,可用于各种场景的功能卸载。FPGA:FPGA 被广泛用于各种网络、通信设备中,具有很好的

7、可编程特性,功能扩展灵活,但存在成本略高、高性能 FPGA 开发周期长的劣势。FPGA 兼具性能和灵活性,适用于智能网卡需求尚未完全明确、功能没有完全固化的阶段,功耗低于 SoC 卡,通过 FPGA 迭代开发来应对智能网卡应用场景需求的变化。NP 具有功耗较低、开发效率较高等特点,处理性能基本接近 ASIC。由于采用硬件技术解决了多核并发带来的资源互斥问题,同等功能的网络特性用NP 微码开发要简单很多,能效比更是远高于通用 CPU。但 NP 的技术门槛高,生态上不成熟,主要用于数通产品,适合转发加速。ASIC 具有功耗低、性能强、效率高的优势,但其定制开发成本高、生产周期长,由于逻辑处理被 A

8、SIC 硬件固化,因此功能扩展和灵活性方面有较大限制,主要功能固定。ASIC 卡适合大规模使用,很难应对复杂的应用场景。基于以上四种基本架构可对智能网卡进行简单分类,但实际上单一芯片架构通常难以满足复杂多样的场景需求。SoC 通过 CPU 做业务功能加速,虽然具备编程灵活、功能强大的优点,但性能和功耗方面存在瓶颈。FPGA、NP、ASIC性能方面比较强,但编程灵活性方面存在短板。因此,除了 SoC 片上系统 CPU加速外,智能网卡主要以 SoC+FPGA、SoC+NP、SoC+ASIC 增强形态出现,同时也因基础架构的不同而适用于不同场景。(二)(二)智能网卡产业及应用情况智能网卡产业及应用情

9、况智能网卡首先由国外互联网云商进行先期探索,并验证了智能网卡能够有效提升云数据中心效能。国内阿里巴巴、腾讯等互联网企业也积极研发智能网卡产品,降低其硬件投入和运营能耗,提升其云数据中心产品及服务的竞争力。Amazon 的 AWS 在 2013 研发了 Nitro 产品,将数据中心开销(为虚机提供远程资源,加密解密,故障跟踪,安全策略等服务程序)全部放到专用加速器上执行。随后基于 Nitro 项目,Amazon 于 2013 年推出第一代智能网卡 AWSNitro C3,主要解决了服务器虚拟化层 Hypervisor 的卸载分担问题,把Hypervisor 层削薄,把一部分能力转移到智能网上。微

10、软在 2015 年将第一代 Azure SmartNIC 部署在计算服务器中。微软选择了 FPGA 方案,能够不消耗主机 CPU 核资源,满足 SRIOV 硬件的延迟、吞吐量和利用率要求,并支持 SDN 功能,具备高可维护性,即可适应新功能的可编程性,又能利用定制硬件的性能和效率。阿里巴巴集团在 2016 年启动了 X-Dragon 神龙项目,明确提出虚拟机性能损失应降为 0。X-Dragon 芯片可以让部署神龙芯片的设备完全具有虚拟机的特性,包括虚拟机的接口,实现裸金属和虚拟机同样的扩展和管理功能,和现有的云环境可以通过私有接口或 Open API 无缝集成。腾讯在 2020 年推出第一代水

11、杉智能网卡,实现了云主机的 vSwitch 功能下沉到智能网卡,物理机网络功能也下沉到智能网卡,在提升了服务器内网络性能的同时,也使云主机和物理机具有相同的硬件架构。二、二、运营商引入智能网卡场景分析运营商引入智能网卡场景分析从运营商角度来说,云化 NFV 的发展从最初的大区集中式的 10G 网络的数据中心需求变成分布式数据中心,集中大区数据中心带宽由 10G 已经发展到了25G,并朝着 100G 发展。而边缘数据中心则承载着更高带宽、更低时延的视频、工业互联网等业务,对网络带宽、存储性能都有着极其严苛的需求。传统的DPDK/SPDK 在消耗了足够的 CPU 资源的基础上已经无法满足更大带宽(

12、25G 以上)以及更高存储性能(50MPPS)的需求。此外,受限于裸金属架构及虚拟化平台能力,导致裸金属服务器无法像虚拟机一样弹性部署,资源调度不灵活。同时,一些新的技术,如无损以太网、RDMA 等技术应运而生,以数据为中心的处理器-智能网卡(Data Processing Unit)架构也由此诞生。(一)(一)OVSOVS 卸载卸载网络流量激增及业务需求演进推动数据中心网络向高带宽和新型传输体系发展。云服务商为租户提供虚拟机租赁业务,并依赖虚拟交换机(vSwitch)收发数据包。中国移动云数据中心普遍采用 NFV/SDN 架构,虚拟交换机 vSwitch采用开源组件 OVS(Open vSw

13、itch)进行增强开发;同时在每台计算节点上为OVS 预留固定的物理核资源,实现计算节点 vSwitch 转发。由于 CPU 不适合处理并行固定模式计算,导致 vSwitch 转发性能提升与算力资源消耗难成比例,无法满足高速率网卡限速转发要求。且后摩尔定律时代,算力增长速度与数据中心网络传输速率增长速度不匹配,且差距持续增大,将网络功能卸载到专用硬件芯片的需求愈发急迫。将 vSwitch 卸载到智能网卡,实现网络功能硬件卸载和加速,释放主机算力资源用于其它业务处理。根据网卡芯片能力及场景成熟度,存在转发面卸载及全卸载两种模式。转发面卸载模式:仅将非常消耗 CPU 资源的转发面卸载到网卡,控制面

14、仍运行在主机中,转发面卸载模式具有如下特征:转发功能卸载到网卡上,从而降低 OVS 计算服务器上的资源占用,释放转发面算力资源,计算节点可部署更多的虚拟机。通过将现有 OVS+DPDK 的快速流表查找转发卸载到智能网卡,流量优先匹配智能网卡的流表,完成快速查表转发,并完成 VxLAN 封装解封装,CAR 限速等功能;通过上述方式,即可以减少转发时 CPU 资源的消耗,也能提升转发性能及表项规格。全卸载模式:将控制面和转发面一起卸载到网卡上,实现对主机侧算力资源零消耗,全卸载模式具有如下特征:控制面和转发面同时卸载到网卡上,全面释放转发面和控制面算力资源,计算节点可部署更多的虚拟机。由于控制面业

15、务逻辑复杂,对网卡有额外算力要求,依赖板载 CPU 支持。图1 vSwitch全卸载模式架构此外,当前 SDN vSwitch 实现的软转发功能面临如下挑战:通过物理 CPU 绑核实现的 vSwitch 软转发通过软件实现转发,可支撑的带宽有限。控制面网元所需转发带宽在 10GE15GE 之间,可通过 OVS 绑核预留资源实现。但随着服务器计算密度变大,所需 OVS 转发带宽变大导致 OVS预留资源随之增加也无法满足数据面高转发要求,故需要使用 OVS 卸载,即通过硬件网卡实现 OVS 转发。SDN vSwitch 实现转发技术需要在 vSwitch 内创建流表五元组(源目的 IP地址、源目的

16、端口号、协议类型),以实现消息包的快速转发,但是在现网中,有些网元如 VoLTE、SBC、5G 消息等需要连接上千用户,这些用户产生的大规模流表达到 2000 万以上,无法通过 OVS 绑核实现,导致现网同时建设增强二层(部署 VoLTE SBC、5G 消息等大流表网元)、SDN 2 种类型的资源池,引入 OVS 卸载后可解决流表问题,统一资源池组网到 SDN,实现更高的资源共享度及利用率、减少规划建设复杂度。(二)(二)弹性裸金属弹性裸金属运营商网络为满足不同业务部署需求,除提供虚机资源外,也提供裸金属服务器,通过将虚拟化软件、操作系统和应用直接安装在硬件上,让租户独享主机资源,具有强大的安

17、全隔离特性,性能可媲美传统物理主机。但受限于裸金属架构及虚拟化平台能力,导致裸金属服务器无法像虚拟机一样弹性部署,开通管理成本高、交付运维效率低,资源调度不灵活;同时,由于主机侧缺少虚拟化软件,租户无法使用云盘功能,降低了存储网络灵活性和安全性。为了克服裸金属服务器的上述缺点,裸金属硬件加速很快走进了我们的视野,使得裸金属变为云化裸金属。云化裸金属服务基于现有虚拟化云平台的新型计算类服务,兼容虚拟机的弹性和物理机的性能及功能特征,与传统的虚拟化技术相比,云化裸金属服务不仅保留了普通云服务器的弹性体验,而且保留了物理机的性能与特性,同时拥有物理机级别的资源隔离优势,特别适合上云部署传统非虚拟化场

18、景的应用,此外支持嵌套虚拟化技术。云化裸金属服务通过将传统虚拟化平台中的管理、网络和存储等模块卸载到智能网卡上,为用户提供与虚拟机一样体验的弹性服务,实现裸机与虚拟机统一的发放与管理流程,实现虚拟化与裸金属统一部署,具有以下特征:裸金属服务器全自动化发放,满足分钟级弹性伸缩能力。通过控制台自助申请,无需人工介入,即可完成自动化镜像安装、网络配置、云盘挂载等功能,简化客户配置;完全兼容虚拟化平台云盘系统,支持云盘启动能力,免操作系统安装,满足租户按需进行云硬盘的挂载和卸载,满足弹性存储的要求,减少本地盘成本,也使得存储网络无需暴露给用户操作系统,减少网络攻击等安全隐患,同时兼容虚拟机镜像系统;兼

19、容虚拟机 VPC 网络,实现裸金属服务器和虚拟机网络互通,支持自定义网络实现裸金属服务器之间互通,实现灵活组网。图2 弹性裸金属卸载架构(三)(三)存储卸载存储卸载近年来越来越多视频、数据库等业务上云,对云存储的性能需求越来越高,原有采用内核态 ISCSI 或存储厂商自研的平台协议,其性能受制于内核本身性能模块,无法满业务需求。因此 SPDK 应运而生,但 SPDK 本质是采用 CPU 换性能的策略,随着存储 IO 性能的不断提高,消耗的 CPU 资源也越来越多,导致COST 服务器本身的资源利用率不断下降。因此,将存储网络协议栈或存储客户端卸载到智能网卡上,可以减少主机侧 CPU 的开销,提

20、高主机侧 CPU 资源利用率,同时在裸金属场景下也可以避免存储网络协议栈在客户 OS 暴露而引发的存储网络安全风险。在后端存储平台上一般会支持不同的存储介质,从 SATA 的 HDD,SATA 的 SSD 和 NVMe SSD,从而构建出面向不同应用的存储服务。智能网卡中的存储卸载主要包括两部分内容:1ISCSI 或 RBD 存储客户端卸载智能网卡上拥有 ARM 或者 x86 的 CPU,因此可以在智能网卡上实现 ISCSI或 RBD 客户端,配合 SPDK 用户态加速框架提升存储转发性能带宽。2NVMe-oF 的卸载随着存储介质的发展和高性能存储需求的提升,存储接口正在由传统的ISCSI 向

21、 NVMe 演进。采用 NVMe-oF(NVMe over Fabric)协议可以把 NVMe 协议在系统中提供的高性能、低延迟和低协议负担的优势进一步发挥到基于高速网络的 NVMe 共享存储系统互联结构中,NVMe-oF 可以使用不同的高速的网络传输协议来实现 NVMe 功能,即可以支持多种类的 Fabric 网络,包括 FC(FibreChannel)、IB(InfiniBand)、RDMA、TCP 等,考虑到网络传输协议的高性能和兼容性问题,业界目前选择基于以太网的 RDMA(RoCEv2)居多。在智能网卡上实现卸载 NVMe-oF 功能,可以在计算节点侧提供原生 NVMe 的后端存储接

22、口,通过高性能的 RDMA 网络协议(如 RoCEv2)连接到存储端,在存储侧使用智能网卡硬件实现的 NVMe Target 管理 NVMe SSD,整个存储网络传输端到端 bypass 主机 CPU,并且没有任何的协议转换消耗,为云主机提供了与本地 NVMe 性能接近的高性能弹性远端存储。图3 智能网卡实现NVMe-oF硬件加速综上所述,采用智能网卡卸载存储面处理不但可以显著提升存储性能,同时也提高 COST 服务器自身的 CPU 利用率。也可以利用硬件加速支持 NVMe-oF 的协议达到原有 CPU 无法达到的存储性能。(四)(四)虚拟网元业务加速虚拟网元业务加速1 1 v vDPIDPI

23、DPI(Deep Packet Inspection)设备为例,作为应用层载荷深度检测核心设备,承担流量识别、分析、控制等功能,是运营商实现流量经营、网络安全关键设备。随着 UPF 等设备部署位置边缘化,配套 DPI 设备也虚拟化部署边缘云通用服务器中,丧失设备专用性导致报文处理效率大幅降低,设备功能受限。同时,随着车联网、5G 消息、AR/VR 等业务兴起,DPI 设备分析处理的业务种类日益增加,这些计算密集型、规模并行型业务对设备时延、带宽等提出更严苛要求。类比专用设备实现架构,结合智能网卡芯片能力,可以看出,GTP 隧道解封装、同源同宿流量分发等强转发功能可以下沉,通过网卡硬件加速芯片(

24、如FPGA)进行功能卸载和加速,将七层业务识别、报文复用等依赖复杂计算的功能下沉到网卡板载 CPU 处理。该架构下,可大幅提升设备处理性能,降低流量处理时延,解决流量非同源同宿问题,保障分析结果准确性及完备性;同时,网卡硬件提供丰富的报文匹配、隧道封装/解封能力,可实现流量就近处理,减少流量到主机的绕转,突破虚拟化 DPI 设备报文复用等功能限制。图 4 智能网卡实现 DPI 卸载2 2 v vFWFW随着云计算和虚拟化技术在企业里的应用,通过使用虚拟化技术将基于软件实现的网络功能与底层硬件解耦,提供丰富的网络安全功能与部件,包括防火墙、反病毒、入侵检测防御系统(Intrusion Detec

25、tion and PreventionSystem,IDPS)等,来实现安全资源的统一管理、灵活部署、弹性伸缩,保障企业业务的安全性、可靠性及敏捷性。但是相对于通用或嵌入式硬件实现的安全设备来说,虚拟安全设备在性能和资源占用上还存在一定的劣势。如 VM 上部署的虚拟防火墙,在对 DC 内 VM 间东西向流量进行安全防护时,会对服务器网卡 I/O 产生非常大的影响,包括影响服务器 vSwitch 的其他网络转发。对于 IPS、内容过滤这些依赖正则匹配的安全业务,如果没有硬件加速能力,也会消耗大量的虚拟机计算资源,影响整体安全业务处理性能。此外,当防病毒软件开启实时防护时,会对虚拟化平台的 CPU

26、、内存和磁盘 I/O 带来巨大的压力,并影响业务的正常运行;未来随着 AI 技术在安全产品上进一步应用,AI 训练和推理性能也是影响虚拟化安全产品进一步推广和应用的关键因素。智能网卡充当硬件防火墙会话处理的快路径,提升防火墙整机吞吐量,在产业界已经有很多实践,未来随着智能网卡的产业化,兼容更多的服务器,智能网卡技术在虚拟防火墙快路径卸载、AI 加速、IPS 模式匹配加速、加解密加速上,能够减少对虚拟机 CPU 资源的消耗,获得较好的经济效益。图 5 智能网卡实现 FW 卸载3 3 v vLBLB在基于云的架构中,软件化的负载均衡被越来越多的使用和部署,对于软件负载均衡(以下简称软件 LB)而言

27、,其优点在于灵活性和弹性扩展,但缺点是无法媲美硬件的性能。硬件负载均衡设备绝大多数通过在设备主板或控制板卡中集成专用芯片来提升设备底层数据包处理能力和延迟,并通过 FPGA 可编程芯片提升抵御 DDoS 攻击和四层 TCP 建立连接和吞吐能力。为了弥补软件 LB 在性能方面的不足,业界普遍采用的方案是将 CPU 密集型功能卸载到宿主机的硬件智能网卡和 SSL/TLS 加解密卡上,来防止软件 LB 系统资源耗尽,从而提升软件 LB 的处理性能。因此,软件 LB 在选择智能网卡时,通常会选择基于 FPGA 的智能网卡,保持和硬件 LB 接近的物理硬件架构。智能网卡对软件 LB 辅助增强的典型场景:

28、通过智能网卡实现降低软件 LB的系统资源消耗,四层负载均衡能力加速,高性能 NAT44/NAT64 能力,抵御大流量 DDoS 攻击。在业务流量中,如果混合了攻击流量,通过智能网卡和软件 LB 的配合,可以有效的过滤攻击流量,保障正常交互的业务流量转发至软件 LB,充分保护软件 LB 的系统资源不被攻击所蚕食,此方案场景可提供类似专用硬件的高性能保护,同时提供云环境的灵活性和敏捷性。此外,由于 FPGA 可以重新编程,因此随着威胁的发展和变化,可以持续迭代和增强安全防护能力。图 6 智能网卡实现 vLB 卸载引入智能网卡最大的挑战是会增加云 IaaS 基础架构的复杂度,在宿主机服务器上需适配不

29、同的智能网卡,同时不同软件 LB 支持的智能网卡类型、品牌也存在差异。除数据面的适配以外,通常引入智能网卡还需要管理面的集成和策略、配置编排,例如,在 DDoS 攻击防护场景,攻击防护策略、黑白名单等都会存在更新和变化,需要对智能网卡进行必要的管理。(五)(五)高性能无损网络高性能无损网络算力时代,数据中心更聚焦对数据的高效处理,随着多样性算力演进及存储性能提升,网络丢包和时延成为任务处理性能瓶颈,须具备高性能无损的交换能力。高性能交换网络核心是端网协同,端侧运行高性能存储协议,提升报文处理性能,网侧构建低时延、高吞吐转发能力,动态感知网络质量并向端侧反馈,指导端侧高效执行网络流控及多路径切换

30、。图 7 端边融合的高性能网络架构图传统网卡仅支持 TCP/IP 协议,高性能协议依赖 CPU 处理,性能难达预期。借助智能网卡的可编程能力,硬件卸载 NVMe over Fabric、RDMA 等高性能网络协议栈,提升端侧协议处理性能;板载 CPU 处理拥塞控制算法并执行流控及路径切换,与网侧无损技术协同构建零丢包、低时延、高吞吐的总线级交换网络。当前业界智能网卡软硬件设计缺乏针对该场景的支持,如缺少大容量高性能缓存,导致防抖动性能较差;缺少描述符预读取机制,导致数据接收延迟增加,测试数据无法达到预期。后续需从软硬件协同架构设计等方向持续推动智能网卡技术体系成熟。(六)(六)端到端可视化运维

31、能力卸载端到端可视化运维能力卸载传统 SNMP 协议采用分钟级轮询机制来监管网络状态,无法反映路径、丢包、时延等真实网络状态;随着 VxLAN、RDMA 等协议部署,网络转发行为愈发黑盒;随流技术在原始数据报文中增加 IOAM 检测头,在业务转发路径中根据检测头进行数据采集,再通过集中检测单元计算检测结果,能够精确测量每条业务的丢包率/时延信息,精确还原业务转发面路径信息。随流检测技术作为业界实现可预期网络的热门技术,当前主要依赖于硬件接入交换机或软件 OVS 实现,其中:采用硬件交换机作为随流检测起终点时,受限于交换芯片能力,存在如下问题:起点 TOR 采样表项数量不足,一般只有 100k

32、级别的数量,不足以支撑大量的探测采集。起点和终点的采样性能有限,基本都不足 100G 的采样以及上送能力。终点 TOR 作为最后一跳,由于需要采样上送服务器(无法在转发到接口后打时间戳),所以时延不准。采用软件交换机(ovs)作为起终点时,会大量消耗 Host 端 CPU 资源,且裸机侧无法实现。引入智能网卡后,随流检测报文由网卡侧进行识别、染色、统计、上报,封装解封装,即网卡作为随流检测的起点和终点,TOR/Spine 设备作为随流检测报文的过路设备,仅进行识别和上报,最终由网卡进行随流检测报文的解封装。图 8 端到端可视化运维能力卸载引入智能网卡后,整网的 INT 能力无论从性能、功能、容

33、量等方面都得到了“质”的提升,配合“管控析平台”极大提升了端到端可视化运维的能力。由于监控的起点分散在不同的网卡侧,可监控的流表的数量取决于网卡侧的能力,一般来说,网卡的流表能力都在 M 级别,使得整网的流监控粒度得到充分扩展。TOR、Spine 设备都是过路设备,对 IOAM 报文的处理不需要进行封装解封装IOAM 操作,只需要识别为 IOAM 报文以及上报相应的检测信息,大幅降低对交换芯片的转发压力(从不到 100G 能力提升到 T 级别),从而提升了整网的监控能力。TOR 仅作为过路设备,可以获取精确的时延。三、三、总结与展望总结与展望(一)(一)标准化现状及推进思路标准化现状及推进思路

34、随着智能网卡技术的大规模发展和应用,越来越多的厂商加入了智能网卡的产业中来,但因其网络、存储、管理卸载的特性本身都与 NFVI 层强关联,并且涉及的标准化或开源组织众多,导致智能网卡整体标准组织或开源项目相对匮乏,导致业界各个厂商均有自身的私有实现,难以形成统一的产业标准和共识,从而导致各厂家仍采用端到端烟囱式模式部署,成本居高不下,功能性能参差不齐,使得智能网卡给运营商带来的优势大打折扣,阻碍智能网卡大规模部署。目前,产业界逐渐意识到该问题,并推动 Intel IPDK,linux OPI 等开源项目成立。同时,越来越多的厂商开始参与统一标准的制定,推动智能网卡标准和开源成熟,并依托各厂商新

35、技术及现网验证,逐步推动标准落地,实现异厂商解耦。智能网卡不仅是网卡自身硬件架构的革新,也对上层应用软件、底层驱动等各层级软件栈提出新的适配要求,需持续推动智能网卡软硬件协同设计,构建丰富完善软件生态。(二)(二)国产化现状及推进思路国产化现状及推进思路国内智能网卡产业链虽在如火如荼地发展,但由于起步比较晚,国产化替代选择较少,特别在芯片产品化上,与国外存在较大差距。无论是 AWS 自研的Nitro 卡,还是在商用领域独领风骚的 Mellanox BF 系列网卡都具备深厚的技术积累以及产品领先性。目前,国内已有很多科技公司及创业公司投身智能网卡研发工作,但不容忽视的客观事实是国内主流芯片方案在

36、功能、性能上仍存在较大差距。随着中国企业软、硬件实力增强以及软、硬解耦的趋势发展,经过一段时间的培育,中国智能网卡产业必将涌现出一批本土企业。同时通过国内芯片环境的逐渐改善,芯片的制造成本、供给能力也将得到极大的优化,国际巨头把控市场的局面必将被打破,市场将迎来新的变局。在这大环境下,运营商应从实际业务出发,通过具体场景牵引,制定软硬件解耦规范,让更多的国内智能网卡企业能参与到运营商的网络建设中,进而加速推动国内智能网卡产业的蓬勃发展。(三)(三)业务需求差异性与网卡通用性的取舍博弈业务需求差异性与网卡通用性的取舍博弈智能网卡诞生的目的是要完成从以计算为中心到以数据为中心的这一个转型,其挑战显

37、而易见,分别体现在软硬件两个不同的方面。运营商引入智能网卡存在场景覆盖云基础设施能力增强、NFV 网元加速、网络性能加速及运维能力提升等场景。当前智能网卡系统及芯片种类较多,单一芯片架构通常难以满足复杂多样的场景需求。SoC 通过 CPU 做业务功能加速,虽然具备编程灵活、功能强大的优点,但性能和功耗方面存在瓶颈。FPGA、NP、ASIC 性能方面比较强,但编程灵活性方面存在短板。因此,除了 SoC 片上系统CPU 加速外,智能网卡主要以 SoC+FPGA、SoC+NP、SoC+ASIC 增强形态出现,同时也因基础架构的不同而适用于不同场景。所以在选择智能网卡类型需结合业务场景,在网络灵活性、

38、可编程能力、网络性能等多方面进行评估,选择合适的智能网卡类型。另一方面,智能网卡要真正取代 CPU,需要具有全面的数据网络卸载、存储卸载以及安全的能力,智能网卡一方面需要具有通用性,而另一个方面又要保持高性能,这本身就是一个非常有挑战性的课题。如何保持这两方面的平衡就需要大家从实际需求出发,找到最合适自己的场景。在硬件不同,软件也没有统一标准的情况下,目前业界急需各个云厂商、网卡厂商一起共同为智能网卡软硬件的融合以及规范化、标准化做出自己的贡献。四、四、参考文献参考文献1 中国移动 DPU 技术白皮书2 软硬件融合:超大规模云计算架构创新之路3 算力时代:连接+算力+能力4 算力网络:云网融合

39、 2.0 时代的网络架构于关键技术52021 中国 DPU 行业发展白皮书6 2021 中国智能网卡研讨会报告运营商智能网卡部署场景探索及思考7 从网络虚拟化,看智能网卡发展史8 中国智能网卡(SmartNIC)行业概览(2021)五、五、缩略词缩略词CPUCentral Processing Unit中央处理器SoCSystem on Chip系统级芯片FPGAField Programmable Gate Array现场可编程逻辑门阵列NPNetwork Processor网络处理器ASICApplicationSpecificIntegratedCircuit专用集成电路SDNSoftw

40、are Defined Network软件定义网络VMVirtual Manufacturing虚拟机DPDKData Plane Development Kit数据平面开发套件SPDKStoragePerformanceDevelopmentKit存储性能开发套件RDMARemote Direct Memory Access远程直接数据存取NFVNetwork Functions Virtualization网络功能虚拟化OVSOpen vSwitch开放虚拟交换标准VXLANVirtual extensible LAN虚拟扩展局域网VPCVirtual Private Cloud虚拟私有云

41、ISCSIInternetSmallComputerSystemInterface小型计算机系统接口SATASerialAdvancedTechnologyAttachment hard diskSATA 硬盘HDDHard Disk Drive硬盘驱动器NVMeNonVolatileMemoryHostController Interface Specification非易失性内存主机控制器接口规范ARMAdvanced RISC MachinesARM 处理器IBInfiniBand无限带宽技术TCPTransmission Control Protocol传输控制协议COSTCommer

42、cial Off-The-Shelf商用货架产品DPIDeep Packet Inspection深度报文检测ARAugmented Reality增强现实VRVirtual Reality虚拟现实IPSIntrusion Prevention System入侵防御系统AIArtificial Intelligence人工智能LBLoad Balancing负载均衡DDoSAntiDistributedDenialofService防御分布式拒绝服务TLSTransport Layer Security安全传输层协议NATNetwork Address Translation网络地址转换IaaSInfrastructure as a Service基础设施即服务SNMPSimpleNetworkManagementProtocol简单网络管理协议TORTop of Rack接入交换机

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(ODCC:运营商智能网卡需求场景白皮书(2022)(23页).pdf)为本站 (小时候) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部