VMware虚拟化最佳实践及规划16675.pptx

上传人:muj****520 文档编号:87639500 上传时间:2023-04-16 格式:PPTX 页数:67 大小:1.84MB
返回 下载 相关 举报
VMware虚拟化最佳实践及规划16675.pptx_第1页
第1页 / 共67页
VMware虚拟化最佳实践及规划16675.pptx_第2页
第2页 / 共67页
点击查看更多>>
资源描述

《VMware虚拟化最佳实践及规划16675.pptx》由会员分享,可在线阅读,更多相关《VMware虚拟化最佳实践及规划16675.pptx(67页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。

1、虚拟化最佳实践及规划议程议程应用实施范围考虑应用实施范围考虑服务器采购考虑服务器采购考虑虚拟机部署考虑虚拟机部署考虑管理维护考虑管理维护考虑议程议程应用实施范围考虑应用实施范围考虑服务器采购考虑服务器采购考虑虚拟机部署考虑虚拟机部署考虑管理维护考虑管理维护考虑应用实施范围总体原则应用实施范围总体原则不适合采用虚拟化的应用不适合采用虚拟化的应用具有特殊硬件访问要求的应用高性能图形显卡-不适用虚拟化 特殊的串/并行加密设备-不适用虚拟化USB设备连接需求-可能不适用,可采用外置USB设备代替,需经过测试即使在高配置的服务器上仍然具有很高负载的应用-可能不适用,需分析当前服务器配置情况可以采用虚拟化

2、的应用可以采用虚拟化的应用除上述不适合采用虚拟化的应用之外的所有应用可根据应用迁移的复杂程度决定虚拟化先后顺序较易实现P2V的应用可先做迁移,如可用Converter工具直接迁移的应用较难或不能做P2V迁移的应用可考虑采用重新安装方式后迁根据管理的需要决定是否做虚拟化虚拟化转变过程对现有业务的影响程度转变为虚拟化后对现有管理的影响程度部门之间协调的难易程度虚拟化宿主服务器的部署类型虚拟化宿主服务器的部署类型垂直扩展与水平扩展部署模式垂直扩展与水平扩展部署模式不同资源池的“量子化”模型物理主机HypervisorVMOSAppVMOSAppVMOSAppVMOSAppVMOSAppVMOSApp

3、VMOSAppVMOSAppVMOSAppPhysical HostHypervisorVMOSAppVMOSAppVMOSAppPhysical HostHypervisorVMOSAppVMOSAppVMOSApp物理主机HypervisorVMOSAppVMOSAppVMOSApp不同资源池的类型不同资源池的类型垂直扩展的主机模式提供更大的垂直扩展的主机模式提供更大的连续性资源空间连续性资源空间更容易满足不同负载的吻合性要求可提供更高的资源利用率水平扩展的集群主机模式更像是水平扩展的集群主机模式更像是一组小池子的集合一组小池子的集合多组小容量资源池需要更多的监控管理模块化使用既有优点也有

4、缺点影响虚拟化部署的参数体系影响虚拟化部署的参数体系功能的多样化服务器的重要性独立服务器不重要重要(独立的,本地存储等等)(群集的,多主机的等等)服务器农场(水平扩展服务器群集,公用服务器等等)(后端办公,本地应用等等)负载约束技术约束商业约束困难度增加负载约束负载约束不同的资源组都需要分别考虑不同的资源组都需要分别考虑CPU利用率磁盘 I/O网络 I/O内存利用率虚拟化造成的额外负载通常也要做一定考虑,如虚拟化造成的额外负载通常也要做一定考虑,如磁盘和网络的I/O会增加CPU的负担iSCSI存储访问也会增加CPU负担运维的周期性负载变化也必须考虑进来运维的周期性负载变化也必须考虑进来月末负载

5、变化年末负载变化技术约束技术约束技术约束通常主要是指:技术约束通常主要是指:兼容性(指系统/应用的兼容性)关联性(如系统是摩格逻辑组的一部分)大部分环境下,这些约束包括了:大部分环境下,这些约束包括了:网络连接(子网段级别)应用之间的互连性相关的存储使用技术所用的硬件和外设软件支持度和认证这些约束条件根据虚拟化在内核上下实现的不同而有所不同这些约束条件根据虚拟化在内核上下实现的不同而有所不同共享与分离OS镜像模式商业和流程的约束商业和流程的约束规模较小或集中的情况下容易被忽略的约束规模较小或集中的情况下容易被忽略的约束在实验室的测试环境可以不考虑,但生产环境必须要考虑在虚拟化中常见的商业和流程

6、约束包括:在虚拟化中常见的商业和流程约束包括:维护窗口和冻结改变地理位置和其他物理限制运维环境,安全区域,应用分层部署考虑商业组织,部门以及客户法规政策的考虑与限制忽视这些约束条件将可能导致不可预知的结果忽视这些约束条件将可能导致不可预知的结果具体情况具体分析,根据目标制定计划议程议程应用实施范围考虑应用实施范围考虑服务器采购考虑服务器采购考虑虚拟机部署考虑虚拟机部署考虑管理维护考虑管理维护考虑虚拟化中使用的硬件应满足兼容性列表要求虚拟化中使用的硬件应满足兼容性列表要求ESX服务器硬件配置考虑要点服务器硬件配置考虑要点 CPUsESX 调度调度CPU周期满足虚拟机和周期满足虚拟机和Servic

7、e Console的处理请求的处理请求可用的可用的CPU目标数量越多,目标数量越多,ESX管理这个调度机制的效果越好管理这个调度机制的效果越好(单台服务器配置(单台服务器配置8个以上的个以上的CPU核会有最好的效果核会有最好的效果)超线程技术并不能提供等同于多核处理器的好处;建议关闭CPU的超线程功能(如果有的话)使用具有使用具有EM64T能力的能力的Intel VT 或或AMD V 技术的技术的CPU可以同可以同时支持运行时支持运行32位和位和64位的虚拟机位的虚拟机采用同一厂商、同一产品家族和同一代处理器的服务器组成的采用同一厂商、同一产品家族和同一代处理器的服务器组成的集群,可以获得最好

8、的集群,可以获得最好的VMotion兼容能力兼容能力ES的Enhanced VMotion兼容性扩大了原有VMotion的兼容能力-Alleviating Constraints with Resource Pools Live Migration with Enhanced VMotion-参见参见Best Practices for Successful VI DesignESX服务器硬件配置考虑要点服务器硬件配置考虑要点-内存内存内存资源往往比内存资源往往比CPU资源更会成为潜在的瓶颈资源更会成为潜在的瓶颈在某些时候,虚机环境的内存使用量可能会超过物理内存值:在某些时候,虚机环境的内存使

9、用量可能会超过物理内存值:Host swap file(尽量少用以获得最佳性能)Transparent Page Sharing(多个虚机共享相同内存页面)注意服务器特定的内存配置要求注意服务器特定的内存配置要求DIMM sizes,bank pairing,parity,upgrade considerations(mix and match or forklift replacement)尽可能将服务器配置到最大内存,采用最大容量的内存条(特尽可能将服务器配置到最大内存,采用最大容量的内存条(特别是当没有配满全部内存条时)别是当没有配满全部内存条时)-参见参见Best Practices

10、for Successful VI Design虚拟架构的基本网络连接部件组成虚拟架构的基本网络连接部件组成(Management virtual machine)(Vmotion,iSCSI,NFS)(VM connectivity)Port GroupPort GroupPort GroupESX服务器硬件配置考虑要点服务器硬件配置考虑要点-网络网络-参见参见Best Practices for Successful VI Design最少配置一个虚拟交换机,测试环境可用最少配置一个虚拟交换机,测试环境可用2个虚拟交换机,生产环个虚拟交换机,生产环境建议最少配置境建议最少配置3个虚拟交换机

11、个虚拟交换机虚拟交换机可同时支持3种类型的端口组(Service Console,VMkernel,VM)建议将Service Console、VMkernel和虚机端口组各自使用自己的虚拟交换机可用VLAN技术分割不同的端口组对于使用VMotion和DRS功能的服务器集群,网络配置应该相匹配(虚拟交换机的数量与网络卷标名应保持一致)ESX服务器Service Console使用固定IP,配置正确的speed和duplex。ESX服务器硬件配置考虑要点服务器硬件配置考虑要点-网络网络-虚拟交换机和端口组虚拟交换机和端口组-参见参见Best Practices for Successful VI

12、 DesignESX服务器,虚拟交换机,物理网卡服务器,虚拟交换机,物理网卡出于冗余的考虑,每个虚拟交换机建议至少分配两个物理网卡出于冗余的考虑,每个虚拟交换机建议至少分配两个物理网卡每个每个ESX服务器的物理网卡服务器的物理网卡/口数量取决于准备配置的虚拟交口数量取决于准备配置的虚拟交换机的数量换机的数量如果3种类型的端口组(SC,VMkernel,VM)都在不同的虚拟交换机上,生产环境建议至少6个物理网卡/口如果给包含虚拟机端口组的虚拟交换机分配更多的物理网卡/口,可以获得负载均衡的好处ESX服务器硬件配置考虑要点服务器硬件配置考虑要点-网络基本组件网络基本组件-参见参见Best Prac

13、tices for Successful VI Design物理网卡物理网卡/口与物理交换机口与物理交换机同一个虚拟交换机上的不同物理网卡/口应连接到不同的物理交换机上将一个集群中所有服务器的VMotion功能端口组所使用的物理网卡/口都连到同一套物理交换机上(同样遵循上述第一条规则)ESX服务器硬件配置考虑要点服务器硬件配置考虑要点-与物理网络的连接与物理网络的连接-参见参见Best Practices for Successful VI DesignExample 1:Blade Server with 2 NIC PortsvSwitchvmnic0SCvmkernelActiveSta

14、ndbyvmnic1Candidate Design:Team both NIC portsCreate one virtual switchCreate three port groups:Use Active/Standby policy for each portgroupPortgroup1:Service Console(SC)Portgroup2:VMotionPortgroup3:VM trafficUse VLAN trunkingTrunk VLANs 10,20,30 on each uplinkPortgroup1VLAN 10Portgroup3VLAN 30Portg

15、roup2VLAN 20VLAN Trunks(VLANs 10,20,30)Example 2:Server with 4 NIC Portsvmnic0SCvmkernelActiveStandbyvmnic1Candidate Design:Create two virtual switchesTeam two NICs to each vSwitchvSwitch0(use active/standby for each portgroup):Portgroup1:Service Console(SC)Portgroup2:VMotionvSwitch1(use Originating

16、 Virtual PortID)Portgroup3:VM traffic#1Portgroup4:VM traffic#2Use VLAN trunkingvmnic1 and vmnic3:Trunk VLANs 10,20vmnic0 and vmnic2:Trunk VLANs 30,40Portgroup4VLAN 40VLANs 10,20vSwitch0Portgroup1VLAN 10Portgroup2VLAN 20vSwitch1vmnic2vmnic3Portgroup3VLAN 30VLANs 30,40Example 3:Server with 4 NIC Ports

17、(Slight Variation)vmnic0SCvmkernelActiveStandbyvmnic1Candidate Design:Create one virtual switchCreate two NIC teamsvSwitch0(use active/standby for portgroups 1&2):Portgroup1:Service Console(SC)Portgroup2:VmotionUse Originating Virtual PortID for Portgroups 3&4Portgroup3:VM traffic#1Portgroup4:VM tra

18、ffic#2Use VLAN trunkingvmnic1 and vmnic3:Trunk VLANs 10,20vmnic0 and vmnic2:Trunk VLANs 30,40VLANs 10,20vSwitch0Portgroup1VLAN 10Portgroup2VLAN 20vmnic2vmnic3Portgroup3VLAN 30VLANs 30,40Portgroup4VLAN 40Servers with More NIC PortsMore than 4 NIC PortsDesign ConsiderationsWith Trunks(VLAN tagging):Us

19、e previous approach and scale up to meet additional bandwidth and redundancy requirementsAdd NICs to NIC team supporting VM traffic VLAN Tagging always recommended,but options if NICs available:Dedicated NIC for VMotionAt least one NICDedicated NICs for IP Storage(NFS and/or iSCSI)Usually two teamed

20、 NICs(consider IP-hashðerchannel if multiple destinations and Multi-Chassis Etherchannel employed on physical switches)Dedicated NIC(s)for Service ConsoleAt least two for availabilityNote:easy to consume many physical NICs and switch ports if not using VLAN taggingESX服务器硬件配置考虑要点服务器硬件配置考虑要点-存储存储应尽

21、可能采用外置共享磁盘阵列存放虚拟机文件ESX服务器内置硬盘应有充分的冗余,建议采用RAID1ESX服务器自身对硬盘要求,安装时的Partition划分:不建议用安装时的自动硬盘划分方法,因为/、/var、/home会放再同一个目录下,当/(root)满了时,ESX服务器会发生严重问题。建议:/boot50 到100 MB(Primary Partition)/8.0 到18GB(Primary Partition)(swap)2倍的Service Console内存,建议固定使用1.6G/var4GB 或更大建议足够的ESX服务器程序空间大小为18GB本地端的ISO以及其他文本文件的存放空间要

22、考虑存储对于虚拟机的呈现方式存储对于虚拟机的呈现方式 7VM 层层数据存储数据存储存储阵列存储阵列SCSI 控制器控制器 虚拟磁盘呈现为 SCSI 控制器 SCSI 控制器显示为 BUS 或 LSI Logic 磁盘控制器 一个 VM 可具有 1 到 4 个虚拟 LSI Logic 或 BusLogic SCSI 适配器 每个 SCSI 适配器包含1 到 15 个虚拟 SCSI 存储设备 虚拟磁盘驻留在可格式化为 VMFS、NFS 或裸磁盘的数据存储中 文件系统类型由底层物理磁盘驱动 器确定VMFSNFSFCiSCSINAS卷、数据存储和卷、数据存储和 LUN卷存储阵列数据存储8LUN 102

23、0 GB LUN 是一个逻辑空间可由存储阵列的整个空间创建,也可由其中的 部分空间创建 LUN 映射到 ESX 后即成为卷 当卷被格式化为某种文件系统之后即成为数据存储 不能在同一个 LUN 中混用不同类型的文件系统 每个 LUN 对应一个 VMFS 卷虚拟机内容位于数据存储中虚拟机内容位于数据存储中 数据存储ESX 数据存储类型:数据存储类型:VMware 文件系统(VMFS)使用 VMFS 的 RDM 网络文件系统(NFS)卷卷 VM 内容ESX 主机 数据存储采用某种文件系统格式 可以像操作文件一样操作数据存储 每个系统具有 256 个 VMFS 数据存储 每个系统具有 8 个 NFS

24、数据存储 ISO 映像、VM 模板和软盘映像9虚拟机内容虚拟机内容 文件名文件名说明说明.vmxVM 配置.vmdk虚拟磁盘-flat.vmdk预分配的虚拟磁盘文件 (包含数据).vswp交换文件nvram非易失性 RAM 文件.vmemVM 内存.vmssVM 挂起文件.vmsd快照数据-Snapshot.vmsn快照状态文件VMware-0.log、vmware-1.log 等日志文件10文件夹/子目录数据存储类型数据存储类型 数据存储VMFS数据存储VMFS数据存储NFSIP 网络VM 内容VM 内容FC 交换机光纤通道SAN 磁盘阵列iSCSI SAN磁盘阵列NAS磁盘阵列VM 1ES

25、X 主机 1VM 2VM 1ESX 主机 2VM 2VM 内容VM 3VM 312本地 SCSIVMDKIP 交换机ESX服务器建议配置服务器建议配置-新购新购为了尽可能的发挥虚拟化的作用,最大限度的利用单台服务器的资源,为了尽可能的发挥虚拟化的作用,最大限度的利用单台服务器的资源,建议用于虚拟化宿主服务器的配置应达到或超过如下标准:建议用于虚拟化宿主服务器的配置应达到或超过如下标准:服务器服务器CPU路数路数双路双路四路四路八路八路CPU(建议主频2GHz以上)双路四核四路双核或四核四路双核或四核+内存16GB+32GB+64GB+千兆网口无外接存储4+/6+4+/6+4+/6+使用FC存储

26、4+/6+4+/6+4+/6+使用IP存储6+/8+6+/8+6+/8+FC HBA口(建议4Gb或8Gb产品)222内置硬盘(使用外置磁盘阵列时)222电源双冗余双冗余双冗余从性价比和可用性考虑,不建议在单路服务器上部署虚拟化从性价比和可用性考虑,不建议在单路服务器上部署虚拟化虚拟化宿主服务器建议配置虚拟化宿主服务器建议配置-现有现有对于目前业内用的比较多的四路服务器对于目前业内用的比较多的四路服务器,建议如下:,建议如下:四路单核服务器:运算能力较弱,虚机数量应控制在10个以内,内存配置建议在12GB-16GB;四路双核服务器:运算能力中等,虚机数量可做到10-15个左右,内存配置建议在1

27、6GB-24GB;四路四核服务器:运算能力强劲,虚机数量可做到15-30个左右,内存配置建议在24GB-32GB。VC服务器最佳配置建议服务器最佳配置建议处理器:处理器:2.0GHz或更高的或更高的Intel或或AMD x86处理器,处理器,VC支持多支持多处理,可支持至多处理,可支持至多2个个CPU。内存:最低需求为内存:最低需求为2GB,假使数据库和,假使数据库和VC安装于同一台,建议安装于同一台,建议增加至增加至4GB。磁盘空间:最小为磁盘空间:最小为560MB,建议,建议2GB。网卡:建议用网卡:建议用Gigabit。最低硬件配置最低硬件配置-单个单个2GHzCPU,2GB内存,千兆网

28、口内存,千兆网口可支持20个同时连接,管理50台物理机,1000个虚拟机左右建议配置建议配置-双双CPU,4GB内存,千兆网口内存,千兆网口可支持50个同时连接,管理200台物理机,2000个虚拟机左右议程议程应用实施范围考虑应用实施范围考虑服务器采购考虑服务器采购考虑虚拟机部署考虑虚拟机部署考虑管理维护考虑管理维护考虑虚机个数的规划虚机个数的规划单台服务器所能支持虚机数量的决定因素:单台服务器所能支持虚机数量的决定因素:服务器的硬件配置CPU性能-多核高主频技术使得CPU成为性能瓶颈的可能性越来越低内存大小-做为硬指标的内存,配置越高,所能支持的虚机数量越多网络端口-千兆网环境已很普遍,网络

29、带宽大多有保证,更多从管理角度来考虑HBA卡-磁盘访问性能对虚机数量有一定影响,建议采用4Gb或8GbHBA卡以减少链路影响本地磁盘-内置磁盘的可用性及IO吞吐能力均较弱,不建议在其上存放虚拟机,推荐使用外置高性能磁盘阵列应用负载大小由于物理服务器资源自身的最大限制,应用负载越大,所能同时运行的虚机数量越少建议将不同应用访问特性的应用混合部署在同一物理服务器上灵活运用DRS和VMotion技术可将物理机与虚机的比率关系调到最优考虑到HA及DRS所要求的资源冗余,所有运行虚机在正常负载下,总体资源使用率不超过三分之二会比较合适经验值:双路四核经验值:双路四核10个虚机左右,四路四核个虚机左右,四

30、路四核15-30个虚机(仅为参考)个虚机(仅为参考)虚机资源的分配虚机资源的分配-CPU、内存、内存CPU分配原则:分配原则:尽量使用最少的vCPUs,如果是单线程应用,不支持多线程处理,请不要使用virtual SMP虚拟CPU数量不要等于或超过物理CPU核数,如双路双核服务器配置的虚机最多使用两个虚拟CPU当配置虚拟机的时候须了解ESX服务器本身也有一些overhead。需注意不要超过所有虚拟机使用率和所有vCPU汇总数目。观察”idle loop spin”功能参数,某些操作系统当它们闲置时,并不会真正的释放virtual CPU。确认配置了单一处理器的虚拟机为”UP HAL/kerne

31、l”,多处理器的虚拟机必须设定为”SMP HAL/kernel”。内存分配原则:内存分配原则:内存总量为在资源评估后,计算虚拟机评估结果所需实际物理内存的总和,其他由于应用程序而产生的更多内存需要可以用ESX的磁盘内存来解决关键应用可考虑固定内存的方法以保证性能的稳定性DRS Best Practices:Hardware ConfigurationEnsure hosts are CPU compatibleIntel vs AMDSimilar CPU family/SSE3 statusEnhanced VMotion Compatibility(EVC)“VMware VMotion

32、and CPU Compatibility”whitepaperCPU incompatibility=limited DRS VM migration optionsLarger Host CPU and memory size preferred for VM placement(if all equal)Differences in cache or memory architecture=inconsistency in performanceDRS Best Practices:Cluster ConfigurationHigher number of hosts=more DRS

33、balancing optionsRecommend up to 32 hosts/clusterMay vary with VC server configuration and VM/host ratioNetwork configuration on all hostsVMotion network:Security policies,VMotion nic enabled,GigE network,etcVirtual Machine network present on all hostsVM datastore shared across all hostsVM floppy/CD

34、 connected to host deviceDRS Best Practices:VM Resource SettingsReservations,Limits,and SharesShares take effect during resource contentionLow limits can lead to wasted resourcesHigh VM reservations may limit DRS balancingOverhead memoryUse resource pools(RP)for better manageabilityVirtual CPUs and

35、Memory size High memory size and virtual CPUs=fewer migration opportunitiesConfigure VMs based on needDRS Best Practices:Algorithm SettingsAggressiveness thresholdModerate threshold(default)works well for most casesAggressive thresholds recommended ifHomogenous clusters andVM demand relatively const

36、ant andFew affinity/anti-affinity rulesUse affinity/anti-affinity rules only when needAffinity rules:closely interacting VMsAnti-affinity rules:I/O intensive workloads,availabilityAutomatic DRS mode recommended(cluster-wide)Manual/Partially automatic mode for location-critical VMs(per VM)Per VM sett

37、ing overrides cluster-wide settingHA Best Practices-Setup&Networking Proper DNS&Network settings are needed for initial configurationAfter configuration DNS resolutions are cached to/etc/FT_HOSTS(minimizing the dependency on DNS server availability during an actual failover)DNS on each host is prefe

38、rred(manual editing of/etc/hosts is error prone)Redundancy to ESX Service Console networking is essential(several options)Choose the option that minimizes single points of failureGateways/isolation addresses should respond via ICMP(ping)Enable PortFast(or equivalent)on network switches to avoid span

39、ning tree related isolationsNetwork maintenance activities should take into account dependencies on the ESX Service Console network(s)VMware HA can be temporarily disabled through the Cluster-Edit Settings dialogValid VM network label names required for proper failoverVirtual machines use them to re

40、-establish network connectivity upon restart HA Network Configuration A single service console network with underlying redundancy is usually sufficient:Use a team of 2 NICs connected to different physical switches to avoid a single point of failureConfigure vNics in vSwitch for Active/Standby config

41、uration(rolling failover=“yes”,default load balancing=route based on originating port ID)Consider extending timeout values&adding multiple isolation addresses(*see appendix)Timeouts of 30-60 seconds will slightly extend recovery times,but will also allow for intermittent network outagesNetwork redun

42、dancy between the ESX service consoles is essential for reliable detection of host failures&isolation conditions HA Network Configuration(Continued)HA will detect and use a secondary service console networkAdding a secondary service console portgroup to an existing VMotion vSwitch avoids having to d

43、edicate an additional subnet&NIC for this purposeAlso need to specify an additional isolation address for the cluster to account for the added redundancy(*see appendix)Continue using the primary service console network&IP address for management purposesBe careful with network maintenance that affect

44、s the primary service console network and the secondary/VMotion networkBeyond NIC teaming,a secondary service console network can be configured to provide redundant heartbeating&isolation detectionHA Best Practices Resource Management Larger groups of homogenous servers will allow higher levels of u

45、tilization across an HA/DRS enabled cluster(on average)More nodes per cluster(current maximum is 16)can tolerate multiple host failures while still guaranteeing failover capacitiesAdmission control heuristics are conservatively weighted(so that large servers with many VMs can failover to small serve

46、rs)To define the sizing estimates used for admission control,set reasonable reservations as the minimum resources neededAdmission control will exceed failover capacities when reservations are not set;otherwise HA will use largest reservation specified as the“slot”size.At a minimum,set reservations f

47、or a few virtual machines considered“average”Admission control may be too conservative when host and VM sizes vary widelyPerform your own capacity planning by choosing“Allow virtual machines to be powered on even if they violate availability constraints”.HA will still try to restart as many virtual

48、machines as it can.议程议程应用实施范围考虑应用实施范围考虑服务器采购考虑服务器采购考虑虚拟机部署考虑虚拟机部署考虑管理维护考虑管理维护考虑Impact of VirtualCenter Downtime ComponentImpact ExperiencedVirtual MachinesUnaffected,management requires direct connections to ESX ServersESX ServersUnaffected,management requires direct connections to ESX ServersPerfor

49、mance&Monitoring Statistics Historical records will have gaps during outages,still available via ESX Servers VMotionUnavailableVMware DRSUnavailableVMware HAAgents unaffected&provide failover functionality,admission control unavailable-参见Bulletproof VirtualCenter-A Guide to Protecting VirtualCenterV

50、irtualCenter ComponentsVirtualCenter ServerWeb AccessLicense ServerAD Domain ControllerDNS ServerDatabase Server-参见Bulletproof VirtualCenter-A Guide to Protecting VirtualCenterVirtualCenter Recommended CollocationCollocation of VirtualCenter components is desirable for most environmentsFocus of this

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 考试试题 > 一级建造

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号© 2020-2023 www.taowenge.com 淘文阁