《熊爱国-ACS原生云建设之路.pdf》由会员分享,可在线阅读,更多相关《熊爱国-ACS原生云建设之路.pdf(26页珍藏版)》请在三个皮匠报告上搜索。
1、ACS原生云建设之路熊爱国 资深IT工程师招商银行总行信息技术部原生云服务团队 主管云建设背景和选型云建设历程和现状问题和风险经验和趋势云建设背景和选型背景和选型为什么上云传统主机系统和传统开放系统的挑战为什么是原生云和全栈云原生云和全栈云的优势为什么是多云和混合云多云架构的优势infraserviceapp背景和选型云计算新IT变革的决定性力量招行需要一个先进的私有云来重构科技体系,实现科技的扁平、开放、共享和敏捷,并支撑全行业务更加融合互通以及快速发展。2015年招行组织前往美国硅谷做云计算专题考察背景和选型传统主机系统传统开放系统挑战挑战IBM z390主机COBOL语言IBM AS40
2、0主机RPG语言HP Tandem主机COBOL85/TAL/TACLIBM RS6000VMWARE/VSANEMC/NETAPPIBM DB2/WAS/MQ难以横向扩展与主流技术脱节生态封闭参与者少资源割裂敏捷和弹性差技术栈繁杂应用架构散乱为什么上云传统技术架构成为了进一步创新发展的瓶颈头部厂商引领到开源社区引领外包外购到自主可控两个重要洞察背景和选型原生云(Cloud Native)全栈云(Full Stack)在云的发展过程中,原生云作为一个概念被提出由来已久,它要求云在技术架构、组织、流程和工具等各方面均应具备先进的特性,以AWS为首的领先公有云正是原生云的最佳实践。在面向用户场景方
3、面,构建以满足技术人员云原生应用开发、云服务开发、应用和服务部署以及业务人员使用云场景的全栈功能云,而非实现局部IaaS云或PaaS云。为什么是原生云和全栈云infraserviceapp背景和选型多云(Multi Cloud)混合云(Hybrid Cloud)BiModalBiModalIT IT 双模IT 以标准和稳态为主的传统架构;以云原生为主的云架构。云的理念和架构经受考验后,稳态业务也可以上云。多云=稳态云+敏态云。85%的企业采用multicloud。“Multicloud:reality,not a strategy”官方定义:混合云=公有云+私有云我们的理解:跨多云的统一云平台
4、-高可用-安全异构-避免锁定-安可信创为什么是多云和混合云招行私有云特征面向金融核心交易的金融云面向通用敏捷应用的原生云云开两朵使用通用x86技术栈的通用区使用国产信创技术栈的信创区一云双栈在通用区,使用x86芯片在信创区,使用多种信创芯片一云多芯坚持开放,全面向云原生转型:容器化,微服务架构,DevOps,Serverless,IaC等Open&Cloud Native历程和现状历程和现状2017年,ACS首个Lab实验室在西丽建成,验证了ACS路线可行性。ACS 0.12018年,基于WS2016,建成分行云,通过服务分行,探索上云路径。ACS 1.02019年,升级2.0,基于WS201
5、9,建成ACS同城3AZ,分行云进化为ACS。分行云退出历史舞台,启动应用上云。ACS 2.02022年,基于WS2022升级3.0,实现ACS全行一朵云,建成大规模的先进私有云。招行全面上云。与腾讯云合作的原生云信创区完成建设,正式投产。两个技术栈全面支持IPv6+IPv4。ACS 2.1ACS技术底座初期以通用技术栈为主,目前演进到双栈:ACS 1.0成型于2018年,基于WS2016ACS 2.0成型于2019年,基于WS2019ACS 3.0成型于2022年,包含WS2022和TCE3100随着技术底座的不断升级迭代,持续提升ACS的先进性和可用性。ACS 3.02020年,ACS建成
6、两地七中心高可用架构,ACS私有云体系建成,升级WS版本,优化ACS性能。服务全行50%应用上云。启动三年上云工程。ACS IaaS平台发展历程历程和现状ACS PaaS平台建设历程1.启动PaaS平台技术研究和建设试点20141.基于PCF的PaaS 1.0容器平台投产落地2.第一批试点应用完成改造投产1.PaaS 1.0容器平台形成异地双活部署架构2.传统应用改造迁移,扩大试点范围1.PCF重要版本升级及部署架构优化,提升平台稳定性2.k8s+docker容器技术选型验证1.OCP3适配ACS原生云IaaS,定稿PaaS 3.0容器平台方案,落地投产环研发Region,Region内形成B
7、IZ 3 AZ多活,DMZ 2AZ多活的高可用部署架构2.开始引导应用往PaaS 3.0容器平台改造投产,包含传统应用,PaaS 1.0和PaaS 2.0容器平台上的应用1.PaaS 3.0容器平台落地投产上海环张江Region,Region内形成BIZ 2 AZ,DMZ 2 AZ多活的高可用部署架构2.PaaS 3.0容器平台支持应用异地双Region双活/灾备部署架构3.PaaS 1.0容器平台全量应用完成迁出4.信息技术部三年上云重大专项开始,PaaS 3.0作为主力承载平台,承接应用容器化上云的运行需求1.PaaS 3.0容器平台落地投产深圳环平湖Region,Region内形成BIZ
8、 3 AZ,DMZ 2 AZ多活的高可用部署架构2.PaaS 3.0技术方案版本升级,新建ACS容器集群采用OCP4版本3.PaaS 1.0容器平台环境正式下线4.完成ACS信创区容器平台技术选型验证和部署方案定稿1.完成OCP3技术选型,基于Vmware投产落地PaaS 2.0容器平台,形成深圳+上海的异地双活部署架构,试点应用改造投产2.开始引导应用往PaaS 2.0容器平台改造投产,包含传统应用和PaaS 1.0容器平台上的应用1.完成PaaS 2.0容器平台应用全量迁移至PaaS 3.0容器平台,PaaS 2.0正式下线2.ACS信创区容器平台TKE投产落地,在平湖Region形成本地
9、BIZ 2 AZ,DMZ 2 AZ的高可用部署架构,开始试点应用改造投产3.基于自研的PaaS 4.0容器平台技术体系构建开始,落地自研traefik ingress,自研cmbk8s4.容器平台分级分类方案制定,开始在准生产环境实施集群建设和应用迁移5.信息技术部三年上云重大专项成功验收,实现应用100%上云2000212022历程和现状2019.52020.122021.122022.9首个分行应用上云首个总行应用上云700+个系统完成上云1500+个系统完成上云所有总分行系统完成上云2018.9应用上云历程包括服务亿级客户的手机银行在内,三年共
10、完成总分行2200+套应用系统上云上云试点阶段全面上云阶段历程和现状 2022年整体可用性达到99.995+%,在同业中属于领先地位。应用上云率、容器化程度、微服务能力在行业处于领先地位。荣获 IDC 2023 亚洲(银行业)基础设施现代化领航者(中国);人行金融信创优秀案例。历程和现状发展趋势的总结单技术栈(通用区)双技术栈(通用区+信创区)单网络栈(IPv4)双网络栈(IPv4+IPv6)分行试点上云总分行全面上云稳中求进小步快跑安全合规应用容器/微服务化原生云服务改造有的放矢问题和风险问题和风险1安全的问题DMZ/BIZ两地三中心安全合规2网络的问题延时丢包容量瓶颈传输瓶颈3体验的问题租
11、户体系责任共担模型自服务模式4运维运营的问题运维的侧重运营的侧重5业务连续性AZ隔离和切换发现-定界-隔离三板斧建设混沌工程 等6上云的问题流量调度灰度发布混合部署迁移搬迁统一日志链路追踪信创替代 等经验和趋势经验和趋势1.顶层设计在云建设中至关重要构建企业级云能力框架保证云使能的建设原则在探索中交付,在发展中完善锚定业务场景规划总体架构经验和趋势2.集中力量打磨云平台关键组件通过平台化,服务化屏蔽基础设施复杂性,持续改进服务质量几个重要的工具平台:云管理平台(CMP)cmbagent云运维平台(COP)一体化监控和事件平台(先知)云管理平台云运维平台CMDBCMBAgent监控平台用户侧运维
12、侧公共能力经验和趋势3.发挥云基础设施敏捷弹性的优势层层支撑,最终赋能业务能伸能缩,减少资源浪费基础设施计算存储分离架构;可扩展的软件定义网络PaaS服务业务不中断前提下的动态扩缩容能力应用标准应用架构、应用分类分级IaaS服务资源快速交付能力、高交付成功率经验和趋势4.活着是第一要务,恢复业务是第一优先 解耦的可用性才是可管理的可用性 多管齐下提升容量性能灰度升级保证服务不中断多层次的保障体系PaaS层高可用应用层高可用IaaS层高可用资源池容量管理多容错域管理基础设施的快速故障隔离Region级云服务AZ级切换能力应用分类分级多AZ部署可用性分层原理性能容量整体把控经验和趋势5.开放才能有
13、未来一云双栈,一云多芯信创PaaS通过通用区与信创区的双栈混部结构,满足下述需求:应用支撑能力(业务需求);独立自主(监管要求);成本(可持续性);ACS 双栈架构特点:x86与c86同源,代码复用,节省研发投入;前端流量灵活调度能力,实现平稳过渡;先以信创应用试点,后逐步推广;统一流量调度(4、7层)部署于通用区应用部署于信创区应用流水线发布:x86、c86通用代码信创数据库服务通用PaaS经验和趋势6.紧追前沿技术,分享技术红利On Cloud云开发范式云原生架构转型持续演进全场景覆盖数字化向智能化In Cloud向云而行可能是KPI导向因云而生云原生模式下的自发驱动Thanks开放运维联盟高效运维社区DevOps 时代荣誉出品