《2022年核心系统高可用性设计方案.docx》由会员分享,可在线阅读,更多相关《2022年核心系统高可用性设计方案.docx(10页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、精品学习资源关于系统稳固性策略的探讨1.前言系统作为业务系统的核心,其运行稳固性和高可用性至关重要;因此,需要通过高可用性设计来尽量削减系统的方案内和方案外停机,并在系统显现故障时准时响应、快速复原,以保证关键数据和业务系统的运行稳固性和可连续拜访性;其中:1. 方案内停机是指治理员有组织、有方案支配的停机,比如升级硬件微码、升级软件版本、调整数据库库表、更换硬件设备、测试系统新功能等时, 可能需要的停止系统运行;2. 方案外停机是指非人为支配的、意外的停机,比如当硬件显现重大故障、应用程序停止运行、机房环境遭到灾难性的破坏时所引起的业务系统停止运行;目前,对于方案内和方案外停机,可通过排除系
2、统中的单点失效来尽量削减停机时间;同时,通过采纳可在线爱护(固件升级、在线扩充、故障部件更换)的设备,并通过负载均衡机制实现应用系统的在线升级、爱护,将有效排除方案内停机对业务系统的影响;此外,由于系统中采纳了全面的负载均衡设计,并针对系统失效供应了牢靠的数据备份复原和多点容灾爱护,因而能够有效削减系统方案外停机的复原时间;在造成系统宕机的缘由方面,有统计中说明并非都是硬件问题;其中,硬件问题只占 40,软件问题占 30,人为因素占 20,环境因素占 10;因此,高可用性设计应尽可能地考虑到上述全部因素;对于系统而言,其整体的可用性将取决于内部的应用系统、主机、数据库等多种因素;同时,训练有素
3、的系统爱护人员和良好的服务保证也是确保系统稳固运行和故障快速复原的关键;2.应用系统系统在应用软件架构设计中应从渠道层、渠道治理层、业务处理层等不同欢迎下载精品学习资源层面通过多种措施和策略的综合设计来提高应用系统的高可用性和稳固性; 在渠道治理层和业务处理层的设计中,要考虑设置应用负载均衡、应用软件失效备援、 vip 服务通道、流量掌握、故障隔离等机制;1. 应用负载均衡应用软件负载均衡通过多个层次上不同的负载均衡策略一起实现整体的负载均衡,应用负载均衡的设计思路是将大量的并发拜访或数据流量分担到多台节点设备上分别处理和将单个重负载的运算分担到多台节点设备上做并行处理来达到负载均衡的成效,从
4、而提高服务响应速度,提高服务器及其他资源的利用效率,防止服务恳求集中于单一节点导致拥塞;2. 应用软件失效备援应用软件构建在面对服务的架构、设计思想上,应用服务具有较高的可敏捷部署性;通过这种敏捷性,结合系统基础设施的规划、部署可以实现应用软件的失效备援;系统可以考虑实现基于应用服务和基于应用服务治理框架的多种应用软件失效备援机制;基于应用服务的失效备援是在应用服务治理框架中可以实现应用服务的冗余部署,利用硬件负载均衡设备或应用软件负载均衡可以在需要时将服务恳求切换到相应的冗余服务;基于应用服务治理框架的失效备是将应用服务框架在系统中冗余部署,利用硬件负载均衡设备或应用软件负载均衡可以在需要时
5、将服务恳求切换到相应的冗余的应用服务治理框架;3. vip 服务通道在系统中,从系统运行稳固性、连续性及处理性能的角度,协作物理设 备、系统支撑软件(数据库系统、操作系统)的相关措施,应用软件可通过构建 VIP 服务通道的方式降低应用服务运行期间的相互影响;服务通道可以基于不同业务产品或不同应用服务治理框架的不同粒度来设置,从而满意部分应用处理资源只响应特定的服务恳求或不同的服务监听响应不同的通道传递过来的服务申请的功能;4. 流量掌握在系统中,从系统运行稳固性、连续性角度,协作物理设备、系统支撑软欢迎下载精品学习资源件(数据库系统、操作系统)的相关措施,应用软件可以通过对服务恳求的流量掌握机
6、制,在系统性能波动较大时间段,对少部分影响程度高的交易进行流量掌握,保证系统运行平稳运行;流量掌握是大集中系统体系结构中供应的通过应用软件对系统实施掌握的功能;流量掌握基于大集中系统规律架构,依据系统、子系统、渠道等不同层面的交易流量、交易状态和确定的掌握策略、掌握规章,对系统实施掌握;应用系统具有如下功能:a) 流量数据采集:支持流量数据的采集功能;b) 流量值运算:完成对采集的流量数据进行运算,检索出有流量超过额定量的服务或交易,为后续的流量掌握供应依据;c) 交易流量掌握:支持针对特定交易进行流量掌握;如:针对网络流量大的交易做掌握,如报表文件传输;交易高峰期对批量业务进行流量掌握;d)
7、 渠道流量掌握:支持依据渠道进行流量掌握;e) 掌握策略及规章治理:支持掌握策略及规章的配置,修改等功能;5. 故障隔离在系统中将考虑实现故障隔离机制,在应用软件系统发生故障的时候,通过故障隔离把故障造成的危害限制在最小范畴内,提高系统供应对外服务的整体才能水平;故障隔离是大集中系统体系结构中供应的通过应用软件对系统实施掌握的功能,应用软件设计可考虑应用服务、应用服务框架的敏捷部署,支持多角 度,多层次的故障隔离;应用系统具有如下功能:a) 支持按渠道的故障隔离,例如:当POS渠道交易响应慢,可停止 POS渠道的对外服务功能;b) 支持按子系统的故障隔离,例如:当查询子系统显现反常时,可停止查
8、询子系统的对外服务功能;c) 支持反常服务的故障隔离,例如:如某服务显现反常(如服务CORE DOWN ),可停止此服务的对外服务功能;d) 支持按交易的故障隔离,例如:如某查询交易显现服务堵塞,可停止此欢迎下载精品学习资源交易的对外服务功能;在渠道层的设计中,可考虑采纳网络负载均衡、vip 服务通道等机制;6. 网络负载均衡在柜面网点前置系统侧,可以考虑采纳硬件负载均衡器对网点终端连接到网点前置的负载均衡,利用负载均衡器的连接状态检查和负载均衡策略可以敏捷地调整终端的连接指向,屏蔽因网点前置机故障导致的终端操作反常,提高网点前置系统的可用性;7. VIP 服务通道渠道层的 VIP 服务通道与
9、业务处理层的 VIP 服务通道均针对提高系统的可用性,但是在建设方式上有所区分;渠道层的 VIP 服务通道不仅可以通过渠道层相关应用软件的服务通道设立来实现,仍可以考虑通过设置物理上相互隔离的不同渠道通路来实现;3.主机系统主机系统作为各应用系统的运行平台,其可用性和稳固性是业务系统能够连续、稳固运行的前提;依据应用软件架构设计,每个子系统的功能通过硬件负载均衡机制部署于多套主机设备上,从而排除单台主机所引入的单点故障;对于单台主机系统而言,其高可用性和运行稳固性可从以下几方面加以保障:1. 主机自身的高牢靠性主机采纳高度冗余设计,可充分保证自身的运行牢靠性,如:多处理器架构、冗余电源、冗余风
10、扇、冗余时钟、冗余IO 等;同时,主机采纳多种容错技术, 可 有效 提升 自身 的可 靠 性, 如: 内存 与高 速缓 存上 的检 错与 纠错( ECC)、内存双芯片备用、内存和处理器自动解除配置、用于监控系统状态的独立的服务处理器等;2. 主机关键部件全冗余配置为确保主机运行的牢靠性和稳固性,系统主机的全部关键部件均采纳了冗余配置,以排除主机自身的单点故障,其中包括:a) 配置热插拔 N+1 或 N+N 冗余电源、风扇,防止电源或风扇失效造成的欢迎下载精品学习资源硬件故障或宕机;b) 配置冗余系统盘,并通过操作系统进行系统盘的RAID1 镜像爱护;或采纳 SAN BOOT 系统盘,在实现储备
11、网络连接全冗余的同时,通过在SAN BOOT 磁盘组中采纳高牢靠级别的RAID 技术(如 RAID10+ 热备盘)、不同储备设备中的启动盘映像副本挑选启动、磁盘阵列镜像(即 “双阵列启动”)等技术,切实保证SAN BOOT 的可用性;c) 配置冗余网卡,并依据实际需求采纳多网卡绑定技术,实现多网卡间的自动冗余和流量的负载均衡,以供应更高的数据带宽和链路的高可用性;d) 配置冗余光纤通道 HBA 卡和 InfinibandHCA 卡,并通过多路径软件(操作系统或第三方软件支持)来实现多HBA/HCA卡的自动冗余与IO 负载均衡;e) 配置冗余的主机治理处理器,能够在线配置、治理主机并监控主机状态
12、,同时支持透亮接管和在线更换治理处理器;3. 主机自身的高可爱护性主机的高可爱护性对于排除方案内停机的影响至关重要,主机通过其在线爱护功能来确保其方案爱护期间的高可用性;其中:a) 主机支持固件的在线升级,防止了因固件升级造成的方案内停机;b) 在主机上采纳高可用操作系统,通过支持在线处理单元板增加与删除、动态内核调试、动态可加载内核模块框架(支持在线IO 驱动加载与补丁升级)、 PCI 错误自动修复、动态错误治理与安全隔离、动态根盘(支持软件在线补丁升级)等高可爱护特性来实现不停机的IO 驱动、操作系统和应用软件的版本、补丁升级,从而防止了因软件版本或补丁升级造成的方案内停机;c) 主机的处
13、理单元板、电源、风扇、磁盘、IO 等关键部件均支持在线增加与删除,同时其硬件支持热插拔,可实现故障部件的在线更换,防止了 因部件更换造成的方案内停机;4. 主机系统的高可用性设计在主机上设计采纳了电气隔离的动态硬件分区技术,同时各分区采纳相互欢迎下载精品学习资源独立、冗余的 IO 配置以实现自身的高牢靠性;硬件分区技术在优化主机资源利用的同时,可在同一主机硬件内全面隔离分区故障;假如一个分区中的操作系 统、软件或甚至是硬件显现问题,运行在其他分区中的操作系统和软件均不受 影响;在主机硬件分区的基础上,系统设计采纳多个主机分区形成集群来为各业务应用供应运行支撑,同时各主机集群通过Oracle R
14、AC 或网络负载均衡机制实现主机间的负载均衡和自动冗余;为保证最大的可用性,应将同一集群内的不同分区分别部署在相互独立的主机硬件上,并通过各分区相互独立的IO 接入数据网络、心跳网络和储备网络,从而确保了主机系统整体的高可用性;5. 主机系统的高可复原性设计可复原性定义了系统修复故障和复原正常运行的才能;主机系统的可复原性从肯定程度打算了系统显现故障时是否能够自动修复和快速复原,应通过主机系统的备份与容灾设计来确保其高可复原性;其中:a) 对主机系统盘定期进行自动化克隆备份,以便于版本治理和系统盘的失效复原,同时其备份的系统盘映像副本可用于主机在线软件、补丁升级爱护(通过动态根盘技术实现);b
15、) 目前,系统中采纳了两地三中心 +同址备援的容灾体系设计;在上述容灾体系中,通过以下方式实现主机系统的灾难复原:同城容灾:现阶段基于储备同步复制实现数据级容灾,今后可考虑通过主机的城际集群实现同城灾备中心与主中心间的主机系统自动灾难接管;异地容灾:可基于储备异步复制、Oracle DataGuard 等技术实现应用级容灾,今后可考虑通过主机的洲际集群实现异地灾备中心与主中心间的主机系统自动灾难接管;同址备援:可通过储备阵列的异步复制和Oracle DataGuard 等技术来削减Oracle 数据库规律数据块损坏故障对业务系统造成的影响,相关系统主机可按策略实现故障接管;通过上述高可用性设计
16、,主机系统中将不再存在单点故障隐患,这充分保证了主机系统的牢靠性;同时,主机的高可爱护性设计保证了主机能够在线进行故障硬件更换、在线扩充、不停机进行软件和补丁升级,从而有效防止了主欢迎下载精品学习资源机的方案内停机,提高了主机系统的可用性和稳固性;此外,通过备份、容灾设计,在肯定程度上保证了主机系统在发生故障或遭到灾难时能够快速复原服务,从而确保了系统的业务连续性;4.数据库为了防止数据库主机、数据库储备或者数据库规律错误等引起的数据库故障,尽最大可能保证数据库供应7*24 小时的对外服务, Oracle供应了一个高 可用性、高牢靠性和高可扩展性的数据库环境;Oracle数据库供应数据库集群R
17、AC( RealApplicationCluster) 、 DataGuard、 自 动 存 储 管 理 ASM( AutomaicStorageManagemen)t故障 组 镜 像 、 闪 回 技 术 Flashback 、Stream、RMAN快速备份和复原等技术来保证数据库的高可用性和稳固性等功能;在系统中,采纳如下 Oracle 数据库技术供应其高可用性和稳固性:1. RAC 数据库中如某个节点发生故障,集群中剩余节点可连续供应服务,同时这些节点可自动对失效实例进行实例复原,以保证数据的一样性;崩溃 节点的相关虚拟IP 可飘移到某个存活节点以连续响应连接恳求;这样可有效解决数据库服务
18、器的单点故障;2. RAC 数据库是共享储备的集群数据库,在 Oracle 10g 之前,假如数据文件所在阵列发生故障,数据库依旧无法供应服务;而进入 10g 之后,可利用ASM 故障组特性,将数据文件存放在两个不同的储备阵列上,来自同个存储阵列的磁盘置于同一个故障组中,这样即使单个储备阵列失效数据库依然可对外供应服务,有效解决了介质的单点故障;3. 在高可用性的人为错误方面, Oracle数据库供应了多种特性来加以解决:a) 闪回( Flashback)功能可解决删除记录( delete操作)的误操作问题;b) 假如打开回收站功能,闪回特性也可解决删除对象的误操作(Drop 操作);c) 闪
19、回特性需要额外的储备空间;d) 假如无法做闪回操作,可使用“表空间基于时间点的复原”(TSPITR) 将误操作对象所在的某些表空间进行不完全复原,以复原误操作数据;欢迎下载精品学习资源一般情形下,此类操作需要额外的服务器资源;4. Oracle本身供应了 Dataguard容灾技术, Dataguard将数据量相对较小的重做日志从生产系统传输到灾备系统,并重新应用相关日志,使备库与生产库保持一样;进入 Oracle 11g 后, DataGuard 仍支持日志的压缩传输,削减了日志传输所需的网络带宽; Dataguard 除可实现灾备,也可分流生产库的部分工作负荷,如:生产库的数据库备份、报表
20、生成等;DataGuard 也有如下一些缺点:a) 主备库间耦合度较高,会加重生产库的工作负荷;在Oracle 9i 中,如主备库间归档日志差异过大,可能全部归档进程均用于向备库传送归档,造成生产库因无归档进程可用而挂起的严峻后果;新版本中有无此类Bug 尚需测试加以确认;b) 日志传输效率低下; Oracle 的 DataGuard 体系结构中,一个归档日志文件只能使用一个归档进程传输,即使使用了日志压缩技术,其效率也较 低;c) Oracle 只是判定归档日志的检验和来验证日志的完整性,在原灾备中心建设时已经过测试验证此种方式可造成备库错误;因此,假如需要使用 Dataguard实现容灾,
21、建议仍旧采纳原灾备中心的工 作方式,使用第三方编写的传输软件进行归档日志的传输,并使用类似MD5校验等方式保证日志文件的完整性,这样既实现了容灾目的,又降低了主备库之间的耦合度;5. 在高可用性中的方案宕机及爱护方面,Oracle 也供应了一系列的特性加以支持:a) 支持索引的在线重建;b) 可在线重定义表,此功能可实现诸如:添加/删除分区、添加 /删除列、移动表空间、堆表与分区表的相互转换、转变储备参数等操作;c) 新的“热”升级( Out-of-Place)方式将补丁安装到新的软件目录中,以削减安装软件所需宕机时间;在实际生产环境中,除了介质损坏、用户误操作等造成的损坏之外,仍有 一种由于
22、 Oracle Bug导致的反常,如内存纷乱、数据块规律损坏等;针对于此欢迎下载精品学习资源类错误,虽然无法全面规避,但可通过以下两种途径降低系统级风险;a) 紧密关注 Oracle 公司定期发布的补丁,并依据实际情形完成补丁的评估、验证及生产库的安装使用,以降低系统潜在风险;b) 采纳同址备援方案,通过异步数据库备份模式,以丰富处理Oracle 生产库数据块部分规律错误处理试,加快系统复原速度;5.服务保证依据 IT 系统运维的多年体会,系统的稳固运行离不开坚实牢靠的售后服务体系、高水平的专业服务团队和高质量的运维治理流程的支撑,同时训练有素 的系统爱护人员和良好的服务保证也是确保系统故障能
23、够快速复原的关键;结合系统建设的实际情形,需要从以下几个层面来保证系统的运行稳固性和高可用性;1. 运维治理层面在数据中心,通过对全部硬件设备和应用软件运行状态的实时监控和统一呈现,可以实现对设备、应用软件反常的预警,同时在系统故障发生时准时报警;为削减人工运维操作所需的时间,提高治理人员的工作效率,降低运维治理工作量并排除人为错误导致的故障隐患,可考虑逐步在数据中心运维工作中推广标准化运维操作的自动化运行,通过基于配置治理数据库的流程化运维治理工具来实现自动化日常巡检(自动化、流程化的系统健康检查)、软件(操作系统、补丁、应用等)的自动化安装、部署和变更监控、审计、以及自动化的系统合规审计和
24、数据的自动化备份等运维工作;2. 售后服务层面全面、准时、高质量的售后服务是关键业务系统运维的基础支撑;对于系统而言,其售后服务体系需要从以下几方面加以保证:a) 通过厂商 7*24 小时的主动售后服务来切实保证设备的无故障运行和故障的快速复原;b) 通过厂商、开发商的定期或按需巡检服务对系统进行全面的健康检查, 准时发觉问题并予以解决,从而降低系统发生故障的可能性;同时,可欢迎下载精品学习资源依据系统前段时间的运行状况,对系统进行必要的优化、调整等工作, 以有效提升系统的运行效能和运行稳固性;c) 在重大活动期间,如两会、国家重要节假日、国家或地方性重大活动 时,可通过厂商、开发商的驻场保证
25、服务来确保系统在此期间的无故障稳固运行;d) 在硬件设备支持在线爱护的同时,应通过厂商7*24 小时快速响应的备件服务来保证故障部件得到准时更换,从而防止系统“带病”运行;3. 运维团队层面运维服务团队(系统治理员、系统爱护人员)对系统设备、软件的正确操作、使用,以及定期的检查与爱护对保证系统的稳固、牢靠性而言非常重要;因此,运维服务团队需要制订、完善系统爱护手册,同时加强对运维服务人员的技术培训,使得每一个运维服务人员都能够正确、标准的操作设备与爱护系统;同时,运维服务团队将与厂商、开发商深化合作,建立故障分级上报与负责机制,以确保每一个问题都能得到准时、妥当的解决;此外,通过收集、整理并规范 IT 运维服务治理中的信息,可逐步建立具有针对性的运维学问库系统,并以此为基础开展IT 运维服务的学问治理,实现学问的创建、储存、共享和应用,从而通过学问库的服务支撑来帮忙服务团队缩短故障处理时间,提高运维工作效率,提升客户中意度;6.小结以上从应用系统、主机系统、数据库和服务保证等几个方面对系统稳固性策略的探讨,影响系统稳固性的仍有其他一些因素,如网络、机房环境等;保证系统的安全和稳固运行是系统爱护人员最重要的工作和责任,我们要不断提高自己的技能,为更好地完成这一工作而努力;欢迎下载