上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

Vertiv:数字化时代的银行数据中心关键基础设施白皮书(20页).pdf

编号:11409 PDF 20页 12.83MB 下载积分:VIP专享
下载报告请您先登录!

Vertiv:数字化时代的银行数据中心关键基础设施白皮书(20页).pdf

1、数字化时代的银行数据中心关键基础设施 白皮书 1 主编 维谛技术有限公司 审核 国家互联网数据中心产业技术创新战略联盟 中国人民银行 中国人民银行 国家开发银行 中国农业银行 中国建设银行 中信银行 中国光大银行 中国民生银行 华夏银行 招商银行 上证数据服务有限责任公司 赛迪顾问股份有限公司 杨志国 康少康 尼米智 许妍 于智勇 常东东 李崇辉 彭晓 吕晓强 于峰 陈炎通 穆中标 宋宇 2 目录 前言.3 一、 数字时代下银行业面临的机遇和挑战.3 二、 分布式架构与集中式架构.4 三、 银行数据中心的革新方向.5 四、 银行关键基础设施可靠性解决方案.7 4.1 标准与合规.7 4.2 关

2、键基础设施.8 4.2.1 UPS 系统 .8 4.2.2 热管理系统 .9 4.2.3 融合基础设施 (模块化数据机房) .10 4.3 各类型银行场景的基础设施推荐方案.14 4.3.1 银行总部级数据中心 .14 4.3.2 银行省级/市级分行数据中心 .15 4.3.3 银行支行和营业网点 .15 4.3.4 自助银行网络间.16 4.3.5 金融团体云或金融托管机房.16 总结.17 3 前言 金融科技带来银行业务模式创新。 金融数字化的发展推动数据的快速增长, 客户行为和业务运营数据可以成为极具价值的无 形资产, 通过对移动互联网、 云计算、 大数据、 人工智能等手段进行开发和利用

3、, 可以为运营效率和服务水平的提升开辟广阔空 间, 从而在激烈的市场竞争中获得优势。 面对爆发的业务, 保障金融数据安全、 满足监管要求、 保证业务连续性、 避免数据中心宕机带来的损失, 成为银行业的巨大挑 战。 确保数据中心高可用性是保障金融业务稳定的关键要素之一。 同时, 银行业积极响应国家节能环保的号召, 在安全稳定的前提 下, 希望获得低耗节能、 高效部署的新属性。 本白皮书将致力于分析银行业的数据中心应用场景和对应的关键基础设施解决方 案。 一、 数字时代下银行业面临的机遇和挑战 4、 来自互联网公司的跨界竞争和社会的舆论压力 近年来, 银行所面对的来自互联网公司的跨界竞争日益激烈,

4、 这些互联网公司尝试把越来越多的金融 服务嵌入到它们既有的业务中, 从而增加对用户的粘性, 并获得具有战略价值的用户数据。 因此民众很容 易拿互联网公司和银行进行简单对比, 社会对银行技术革新的高期望带给银行巨大的舆论压力。 1、 移动互联时代的业务快速增长 进入移动互联时代后, 移动终端的用户数和交易频率大幅增加; 客户要求能够随时随地查询和处理银 行业务; 移动支付、 互联网支付更加广泛和便利; 越来越多的第三方系统接入到银行, 这些驱动力都造成金 融业务快速增长。 此外, 大数据和人工智能广泛应用于风险控制、 营销辅助、 量化投资、 智能投顾、 风险识 别等领域。 这些不仅为数字化金融提

5、供了有力支撑, 还引发数据爆炸式增长。 众多的第三方支付系统不仅给银行带来海量业务, 同时也对银行系统造成很大压力。 比如 “双 11” 等交 易高峰期不仅是对电商平台, 更是对银行核心系统的处理能力提出新的挑战, 因为交易的最终正确性依靠 银行系统来保证。 2、 银行监管日趋严格 近年来, 国家监管部门对银行系统提出越来越高的安全可控要求。 金融监管合规审查涉及众多业务系 统, 传统人工操作将耗费大量的时间和人力成本。 3、 业务连续性要求日趋苛刻 银行对重要业务系统运行连续性要求异常苛刻, 大型商业银行如停机超过半小时造成的业务损失、 声誉等间接损失可达数亿元人民币, 并且有逐年快速增加的

6、趋势。 4 二、 分布式架构与集中式架构 对于银行核心系统而言, 交易数据一致性的重要性不言而喻。 在目前的金融系统业务可靠性要求和监管条件下, “最终一致 性” 方案在银行业还面临诸多挑战。 金融对数据业务具有强实时一致性的要求, 采用集中式的关系型商业数据库来满足 ACID (代表 Atomicity 原子性、 Consistency 一 致性、 Isolation 隔离性、 Durability 持久性) , 是实现强实时一致性的基础。 基于目前的技术水平, 银行的核心业务尚不能摆脱对集中式数据库架构的依赖, 这也是银行 IT 成本远高于互联网公司的主要 原因之一。 例如, 用于承载集中

7、式数据库的大型机或小型机的价格远远高于 X 86 服务器集群。 目前可行的银行分布式架构, 实际上是混合模式。 对于外围业务, 更多地采用分布式; 在核心数据库, 出于业务连续性和数 据 “强一致性” 的要求以及 CAP 原理的约束, 实现完全的分布式处理存在一定困难, 所以仍采用集中式架构。 对于核心业务, 比如: 存款、 贷款、 支付、 增值等, 在目前业务流程对数据强实时一致性的要求下, 绝大多数银行的核心业务采 用集中式架构。 电子渠道等与外部协作的互联网应用场景, 因为有核心系统做支撑, 可以考虑应用分布式架构。 此外, 对数据的实时一致性要 求不高的应用, 如数据分析、 内部管理、

8、 大数据征信、 大数据营销、 大数据风控等, 也可以采用分布式架构。 对互联网公司而言, 其主要业务 (社交、 搜索、 电商类) 的单位数据价值较低, 习惯于最低 TCO 运营 (TCO 总体拥有成本= CAPEX 初始投资成本 + OPEX 运营成本) 。 它们对数据实时一致性要求不高, 也可以接受数据 “最终一致性” , 所以更广泛采用开 放的分布式架构, 实现数据库的灵活扩展, 乃至跨地域 (数据中心) 的相互冗余备份。 互联网公司和银行在业务逻辑、 监管方式、 数据要求上完全不同, 这也造成了不同的技术选择。 分布式和集中式数据库各有优 缺点, 各自在不同的匹配领域里发挥平台优势。 5

9、 三 、 银行数据中心的革新方向 为了降低核心业务过度集中于单一主数据中心的风险, 弱化业务间的交互, 从而做到核心业务分开部署, 是银行核 心数据中心在未来数年甚至更长时间的主流建设思路。 对于 非核心业务以及应用层软件的承载, 可以考虑分布式架构。 既然银行的核心业务连续性和数据一致性的保障寄托 在核心数据中心上, 那么, 这些核心数据中心的可用性/可靠 性不仅不能够降低, 还必须加强。 所以, 问题集中于: 如何保 证高可用性? 数据中心应根据业务重要性, 提出合适的数据中心可用性要求。 从统计结果来看, 供电和制冷总共只占数据中 CAPEX 的 5%, 但 其对保障数据中心的可靠运行至

10、关重要, 所以投资动力环境设备具有非常好的可用性费效比。 关键数据中心的故障将给银行带来巨大的直接损失和难以估量的间接损失 (声誉等) 。 根据第三方调研机构 Ponemon Institute 研究表明, 银行数据中心平均宕机成本高达 994000 美元/次。 总体上, 导致数据中心宕机的原因如下图: 图 1 数据中心宕机原因 数据来源: Ponemon Institute, Cost of Data Center Outages January 2016 提升系统的可靠性 (包括单产品的可靠性) 。 这往 往意味着 CAPEX 的增加; 适当的系统冗余。 这往往意味着 CAPEX 的增加;

11、 提升运维能力。 这往往意味着维护工作量和 OPEX 的增加。 提升系统的可用性方法主要有三个: 可见, UPS 系统和机房空调是保证数据中心高可用性的关键。 29% 24% 15% 12% 10% 5% 5% UPS系统宕机(包括电池) 人为操作失误 机房空调故障 天气相关 发电机故障 IT设备故障 其他 6 另外银行对于节能减排有要求, 那么第二个问题: 如何保证高可用性的前提下, 降低 OPEX? 银行数据中心的关键基础设施典型 OPEX 和电费见下图: 图 2 数据中心OPEX及电费构成 从图中可以看出, 除了 IT 设备 (服务器、 路由器、 交换机) 外, 机房空调能耗占比最高,

12、是 UPS 的 4 倍多。 空调系统的实际能效 表现和机组性能、 风道设计、 气流组织、 维护水平有直接关系, 这部分改善的潜力很大。 对于 UPS, 目前主流厂家的高端 UPS 的效率普遍已经较高。 实际工作时, 即使在 30%40% 的典型负载率条件下, UPS 效率 也普遍在 90% 以上。 如果 UPS 效率提高到 94%, 相比最典型的 92% 效率, UPS 自身耗电量降低 25%, 但数据中心的能耗也只降低 2%, 节能效果有限。 综上: UPS 最关键的功能是保证高可靠供电, 其节能潜力和效果较有限。 优化数据中心节能效果, 从空调系统入手是最有效 的方法之一。 电费构成 人工

13、成本 16% 维保和其他 16% 服务器 52% 交换机+路由器 6% UPS 4% 机房空调 36% 配电 1% 照明及其他 1% 电费 68% 7 JR/T 0131-2015 金融业信息系统机房动力系统规范 ; GB 50174-2017 数据中心设计规范 ; ANSI/TIA-942-B Telecommunications Infrastructure Standard for Data Centers Revision B; JRT 0166-2018 云计算技术金融应用规范 技术架构; JRT 0167-2018 云计算技术金融应用规范 安全技术要求; JRT 0168-2018

14、 云计算技术金融应用规范 容灾; . . . . . . 1 2 3 4 5 6 银行信息系统机房动力和制冷系统分级要求 主要设备或功能A 级 (容错系统型)B 级 (冗余组件型)C 级(基本型) 市电电源/备用发电机 至少来自两个不同的变电站+备用发电机。 同城主、 备数据中心的电源应来自不同的变电站 双路或单路+备用发电机单路 设备空间变配电设备应分别布置在不同物理隔间内/ UPS 供电系统2 N 或 2(N+1)N+X (X=1N)N 空调电源输入2 N N+X (X=1N)N 电池后备 后备时间应大于发电机组启动+开关切换所需要的时 间, 并留有一定的余量或发电机作为后备电源时为 15

15、 分钟; 具备在线监测功能; 根据需要确定 电池监控对电池单体和整组电池进行参数测量和管理对整组电池进行参数测量和管理/ 动力监控系统 动环监控系统对全链路主要设备和关键开关状态进 行监测和管理 监测主要的动力设备包括配电柜、 发电机、 UPS、 ATS、 PDU 等 / 机架配电宜具备支路监控/ 以 金融业信息系统机房动力系统规范 为基础, 结合国内外数据中心标准以及银行对数据中心可靠性的要求, 本白皮书推荐 银行信息系统机房动力和制冷系统分级要求, 如下: 四、 银行关键基础设施可靠性解决方案 4.1 标准与合规 数据中心关键基础设施是银行业务连续运行的关键保障。 中国人民银行制定的 中国

16、金融业信息技术 “十三五” 发展规划 里提到, 重点要完善金融信息基础设施, 提供更加安全、 高效的金融信息技术服务。 银行数据中心机房基础设施也应围绕这一目 标, 在提供安全可靠的前提下, 响应国家对绿色节能的号召, 按照不同的业务重要性, 选择合适的基础设施解决方案。 为防范运行风险, 银行在制定数据中心基础设施方案时, 可参考国内外数据中心基础设施标准规范。 目前主要参考的标准体 系有: 8 4.2 关键基础设施 随着数据中心飞速发展, 数据中心的关键基础设施技术也得到了长足的进步。 为适应各类型数据中心规模、 能效和可靠性要 求, 最核心的基础设施, 如 UPS 系统和热管理系统, 发

17、展出了多种技术类型。 此外, 随着互联网企业和电信运营商大规模快速建设 数据中心, 标准化快速部署成为了其对基础设施的核心诉求之一, 一种融合的基础设施 (模块化数据机房) 应运而生。 4.2.1 UPS 系统 为保证数据中心 IT 负载供电可靠性和供电质量, 通常数据中心选用在线式 UPS。 在线式 UPS 可以有效消除由市电带来的各种 质量问题, 包括: 电压骤降、 瞬态尖峰、 过压、 欠压、 高频噪音、 频率突变、 谐波干扰。 目前主流的在线式 UPS 类型有工频 UPS、 高频塔式 UPS & 机架式 UPS 和高频模块化 UPS。 UPS 类型工频 UPS高频塔式 & 机架式 UPS

18、高频模块化 UPS 可靠性 抗电网波动能力 抗负载冲击能力 效率 节地 可维护性 工频 UPS 是采用可控硅 SCR整 流至 400 V 左右直流母线电压, 经 逆变器和内置隔离变压器输出。 其 主要特点是主功率部件稳定、 可 靠、 过负荷能力和抗冲击能力强, 发 电机适配性好。 高频塔式 UPS 通过高频开关元件 IGBT 整流至 800 V 左右直流母线电压, 经逆变器输出交流电压。 其主要特点 是体积小、 效率高、 成本低, 但过负荷 能力和抗冲击能力较弱。 机架式 UPS 也是一种高频机, 其 外观就像一台机架式服务器, 可以无 缝地安装在标准服务器机柜内部, 以 节约场地空间,并方便

19、气流组织管 理。 高频模块化 UPS 也是采用IGBT 高频开关技术进行整流和逆变。 模 块化 UPS 的功率模块可实现一定程 度的在线维护和扩容, 运维比较灵 活方便。 三种类型 UPS 比较如下: 工频 UPS 高频塔式 UPS & 机架式 UPS 高频模块化 UPS 9 4.2.2 热管理系统 合适的温湿度条件对于保障 IT 设备的可靠运行至关重要, 因此须配备空气调节设备。 在银行业数据中心建设中, 可靠安全为 主要考虑因素, 近年来由于节能减排的需求, 数据中心的运行效率愈发受到重视, 在确保高可靠性的前提下, 节能、 环保和高效也 成为数据中心全生命周期运营的发展方向。 因此, 银

20、行应根据其业务模式、 数据中心的规模和外部环境等, 选择与之匹配的制冷方 案。 目前主要的制冷方式从资源消耗的角度来看, 主要包括机械压缩、 自然冷却和蒸发式制冷, 实际的产品和方案往往是这几种方 式的高效融合。 制冷方式机械压缩自然冷却蒸发式制冷 可靠性 节能性 选址便利 节地 自然冷却 (Free Cooling, 免费冷却) 根据数据中心所在地区和环境, 利用自然冷有助于显著提 升制冷系统的节能效果。 自然冷却通常包含新风自然冷却、 水 冷自然冷却、 乙二醇自然冷却和氟泵自然冷却等, 其中氟泵技 术近年来获得较大发展, 单机组制冷能力达到 250 KW 以上, 使 得氟泵系统可用于更大规

21、模数据中心。 根据不同季节气候变 化, 变频技术使氟泵系统和机械压缩模式切换得到优化, 实现 协作运行, 满足更广大地区数据中心使用需求。 蒸发式制冷 随着创新制冷技术发展, 根据数据中心所在地区和环境, 利用当地自然水源和气候条件, 采用蒸发式制冷方案也可以获 得显著的节能效果。 蒸发式制冷通常包含直接蒸发制冷和间接 蒸发制冷。 直接蒸发制冷适用于空气品质较高, 水资源较为丰 富的地区; 间接蒸发式制冷适用于气候湿度较低的地区。 蒸发 制冷机组通常安装在数据中心室外空间, 与机房环境解耦, 对 空调维护时不需要进入 IT 机房; 蒸发式制冷机组通常适用单层 数据中心, 对占地和选址有更高要求

22、。 当然, 在水资源越来越紧 缺的今天, 蒸发式制冷当然不是免费的。 三种制冷方式特点对比如下: 机械压缩 机械压缩技术通常应用于单元式空调机组和冷水机组等制 冷系统, 由于传统定频压缩技术只能实现启/停运行模式, 使得 制冷量输出无法实时匹配数据中心热负荷的动态变化, 在部分 时段过度制冷, 造成空调机组运行效率降低, 对节能带来不利 影响, 也造成温湿度波动范围较大。 变频技术的引入有利于解 决这一问题, 变频控制使空调机组按数据中心热负荷变化提供 所需制冷量, 减少过度制冷, 节能效果显著提升。 在变频压缩技 术应用的基础上, 采用变频风机和电子膨胀阀等精细化控制技 术, 有助于进一步提

23、升节能效果。 对于单元式空调机组, 近年来压缩机技术的发展使得单机 制冷量和颗粒度增大, 同时, 室外机结构设计的优化使得室外 占地面积显著减小, 因此单元式空调机组可应用于更大规模的 数据中心。 另外, 单元式空调机组不消耗水制冷, 尤其适用于缺 水地区, 也符合银行业数据中心“水不进机房”的建设要求。 而对 于冷水机组, 应充分考虑冷却水塔、 冷却水泵、 冷冻水泵和冷冻 水末端等配套设备的能耗, 综合评估系统整体能效水平。 10 4.2.3 融合基础设施 (模块化数据机房) 数据中心基础设施融合能大幅提高机房能效和部署速度, 因此逐渐成为一种趋势。 基础设施融合的范围一般包括数据中心内 部

24、的低压供配电、 制冷与通风、 机架与布线、 系统监控、 安防门禁、 消防联动等功能, 如图 3。 根据机房的规模、 功率密度、 可靠性和 经济性要求, 通常有 5 种融合基础设施模型。 图 3 融合基础设施方案示意图 UPS 门磁 水浸 封闭通道组件 摄像头 烟感 监控管理 温湿度 空调终端 机柜 PDU 基座 11 模型 1: 双排融合-地板下送风封闭冷通道+空调、 UPS、 电池均外置 模型 1 为高可靠性融合方案, 空调主机、 UPS、 电池放置在 IT 机房外, 这种排布的好处是 IT 机柜与基础设施隔离, 独立授权访 问; 基础设施发生故障维修或者日常运维时可以不进入模块内, 适合对

25、可靠性要求高的场景。 模型2: 双排融合-列间空调封闭冷通道+UPS、 电池均外置 模型 2 为高热密度方案, 采用列间空调提供更优制冷效果, 而 UPS、 电池等设备放置在模块外。 这种排布的好处是保正相对较 高的可靠性的同时满足高热密度应用场景。 但缺点是 IT 机柜和列间空调摆放在一起, 不能完全隔离。 图 4 高可靠性融合方案 图 5 高热密度融合方案 12 模型 3: 双排融合-列间空调封闭冷通道+ UPS 内置 模型 3 为快速部署方案, 主要的基础设施都集成在模块内, 包括列间空调、 UPS 等。 基于高可靠性考虑, 建议电池放置在独立 电池房内。 这种排布的好处是能够实现快速一

26、体化交付。 但缺点是 IT 机柜和列间空调、 UPS 摆放在一起, 不能完全隔离, 机房可靠 性降低。 图 6 快速部署融合方案 双排融合模型模型 1 (高可靠)模型 2 (高热密度)模型 3 (快速部署) 可靠性 高热密度适用性 部署速度 节能性 除了以上三种标准的双排融合基础设施模型外, 还有其它定制化双排融合应用, 主要用于大型互联网公司或托管机房, 比如 顶置冷池、 拼装机架等, 但定制化融合模型在银行数据中心很少应用。 三种双排融合基础设施模型对比如下: 13 模型 4: 单排融合 模型4为单排机柜融合方案, 采用冷热通道全封闭的架构, 可以进一步优化气流组织, 提升制冷效率, 并且

27、所有基础设施都集 成在模块内, 包括空调、 UPS、 配电和监控等, 适合 2-10 个机柜的小型IT机房应用场景。 优点: 结构紧凑、 占地小、 能耗低。 模型 5: 单机柜融合 模型 5 为单机柜融合方案, 在一个 IT 机柜里集成所有基础设施, 并留有空间给 IT 设备, 适合无人值守的网络接入间场景。 根据 场景的需要, 可选择单元式或一体式空调机组。 图 7 单排机柜融合方案 图 8 单机柜融合方案 14 4.3 各类型银行场景的基础设施推荐方案 银行数据中心的建设按照规模和功能可以大致分为总部级数据中心、 省级/市级分行数据中心、 支行和营业网点。 基于技术标 准合规和业界实践,

28、并适度兼顾未来业务预期, 银行业数据中心的设计与建设应满足以下原则: 银行总部数据中心的双活数据中心或者同城灾备中心通常参考银行总部级数据中心要求建设。 兼顾节能标准合规高可用性按业务分级 4.3.1 银行总部级数据中心 银行总部数据中心承载着核心业务, 如果发生中断将影响整个机构乃至国家经济的正常运行, 并可能带来重大社会影响。 包括 央行、 国有大型商业银行、 政策性银行、 股份制银行、 邮政储蓄银行以及大型城商行在内的金融机构都拥有并运营总部级数据中 心。 保障其业务连续性极为关键, 银行总部数据中心应以最高的可用性和可靠性为前提建设。 银行总部数据中心的基础设施推荐 方案如下: 银行总

29、部数据中心基础设施推荐方案 银行机房标准UPS 供电架构UPS 类型制冷方式融合方式 A 级2 N 或 2(N+1)工频或高频塔式 机械压缩; 自然冷却 (适宜地区) 模型 1 15 4.3.2 银行省级/市级分行数据中心 政策性银行、 大型商业银行以及股份制银行一般按照区域监管要求设立省级/市级分行营业机构, 这些机构建立的数据中心 是辖区银行业务的信息枢纽。 此外, 省级/市级分行也承担一些本地特色银行业务, 这部分业务规模相对较小, 但对于辖区客户也至 关重要, 仍有高可用性要求。 随着银行 IT 业务向分布式架构转型, 重点省级/市级分行数据中心会升级成为分布式架构的重要网络 节点,

30、这类节点处于银行的数字化战略的关键位置, 重要性大为提升。 因此重点省级/市级分行数据中心应该参考 A 级标准进行规 划建设, 其他分行可参考 B 级标准要求。 4.3.3 银行支行和营业网点 银行支行和营业网点主要负责网络接入和承载少量本地化业务如视频监控、 叫号系统等, 一般机房规模不大。 综合经济性和 日常运维考虑, 银行支行和营业网点的基础设施推荐方案如下: 银行省级/市级分行数据中心基础设施推荐方案 银行机房标准UPS 供电架构UPS 类型制冷方式融合方式 A 级2 N 或 2(N+1)工频或高频塔式 机械压缩; 自然冷却 (适宜地区) 模型 1 B 级N+1 工频或高频塔式或模块化

31、 UPS 模型 1 或 模型 2 银行支行和营业网点机房基础设施推荐方案 银行机房标准UPS 供电架构UPS 类型制冷方式融合方式 C 级单机或 N+1 高频塔式、 机架式或模块化 UPS 机械压缩 (单元式) ; 自然冷 却 (适宜地区) 模型 3 或模型 4 16 4.3.4 自助银行网络间 银行自助网点一般仅有若干 ATM 设备以及视频安防、 门禁等应用需要网络接入, 单个机柜即可满足该类IT应用的需求。 这类 场景通常需要无人值守和远程管理。 自助银行网络间的基础设施推荐方案如下: 4.3.5 金融团体云或金融托管机房 服务于银行业的金融团体云及金融托管数据中心受银监会监管, 且有机房

32、分区管理需求。 。 云计算技术金融应用规范 安全 技术要求 明确规定, 金融机构是金融服务的最终提供者, 其承担的安全责任不应因使用云服务而免除或减轻。 为保证高可靠性, 金融团体云或金融托管机房推荐按A级标准建设。 自助银行网络间基础设施推荐方案 银行机房标准UPS 供电架构UPS 类型制冷方式融合方式 C 级单机机架式 UPS 机械压缩 (单元式或一体 式) 模型 5 金融团体云数据中心基础设施推荐方案 银行机房标准UPS 供电架构UPS 类型 制冷方式融合方式 A 级2 N 或 2(N+1)工频或高频塔式 机械压缩; 自然冷却 (适宜地 区) ; 蒸发式制冷 (适宜地 区) 模型 1 或

33、模型 2 17 总结 银行数字化转型不仅促进业务的快速增长, 同时还带 来诸多挑战。 数字化金融依托于稳健可靠的数据中心, 同 时为了兼顾经济性, 推荐银行各级数据中心按业务重要性 分级建设。 本白皮书基于客户需求和痛点, 根据不同的应用场 景, 将“供配电系统守护数据业务安全+热管理系统优化数 据中心 OPEX”作为产品方案创新的重要出发点, 为银行业 数据中心推荐合适的基础设施解决方案, 实现可靠性与 TCO 的平衡。 18 Architects of continuity TM 恒久在线 共筑未来 While every precaution has been taken to ensu

34、re accuracy and completeness herein, (business unit) assumes no responsibility, and disclaims all liability, for damages resulting from use of this information or for any errors or omissions. Specifications are subject to change without notice. 扫码关注 回复“BDT”参与优化白皮书 Vertiv 和 Vertiv 标识是维谛技术的商品商标和服务商标。 维谛技术 2019 年版权所有。 维谛技术有限公司 电话:86- 邮编:518055 售前售后电话: 400-887-626 400-887-610

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(Vertiv:数字化时代的银行数据中心关键基础设施白皮书(20页).pdf)为本站 (风亭) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部