《重新检查直接缓存访问以优化数百千兆网络的IO密集型应用程序(英文版)(17页).pdf》由会员分享,可在线阅读,更多相关《重新检查直接缓存访问以优化数百千兆网络的IO密集型应用程序(英文版)(17页).pdf(17页珍藏版)》请在三个皮匠报告上搜索。
1、内存访问是使用商用硬件实现数百千兆位网络的主要瓶颈,因此必须充分利用高速缓存,因为高速缓存是一种速度更快但更接近处理器的较小内存。我们的目标是研究缓存管理对I/O密集型应用程序性能的影响。具体而言,本文着眼于数据包处理中的瓶颈之一,即直接缓存访问(DCA)。我们系统地研究了当前在Intel中DCA的实现 处理器,特别是数据直接I/O技术(DDIO),直接在I/O设备和处理器的高速缓存之间传输数据。我们的实证研究使系统设计人员/开发人员能够为I/O密集型应用程序优化支持DDIO的系统。我们证明,优化DDIO可以将以100gbps速度运行的I/O密集型网络功能的延迟降低约30%。此外,我们还发现,
2、当以200gbps处理数据包时,DDIO会导致尾延迟增加30%,因此有选择地将数据注入缓存或显式地绕过缓存是至关重要的。计算机体系结构社区继续关注硬件专业化,而网络社区则试图通过从专业化硬件转向商品硬件,实现软件定义网络(SDN)和网络功能虚拟化(NFV)的更大灵活性。然而,与专用硬件相比,更大的灵活性是以更低的性能为代价的。由于摩尔定律和Dennard标度的终结,这种方法变得更加复杂。此外,市面上可买到的100gbps网络接口揭示了商品硬件在以数百千兆速率支持数据包处理方面的许多挑战。因此,任何代价高昂的计算都会阻止商品硬件以这些速率处理数据包,从而导致大量的缓冲和/或数据包丢失。由于以这样的线速率访问主内存是不可能的,所以必须更充分地利用处理器的高速缓存。为了更好地管理缓存,本文研究了直接缓存访问(DCA)在英特尔处理器中的实现,即数据直接i/O技术(DDIO),这有助于网络接口卡(NIC)和处理器缓存之间的直接通信,同时避免将数据包传输到主存。我们的目标是完成最近的一系列研究,重点是了解快速联网的领先技术,即外围组件互联快速通道(PCIe)。