提升虚拟服务器网络性能的技术探讨 |
发布时间: 2012/7/4 19:11:51 |
虚拟化正迅速发展成为下一代数据中心的核心元素,而这种变化也给网络带来新的挑战。本报告探讨了虚拟基础设施带来的技术问题,并分享了让你的网络做好准备迎接虚拟化的标准、技术以及最佳做法。在上篇《服务器虚拟化带来的网络现状及问题分析》中,我们已经分析了高度虚拟化环境给网络带来的挑战,在本篇当中,我们将分析解决这种网络复杂性的不同方法。 应该说,这一连串的问题已经引起和行业的注意,并推出了很多新产品和标准来提高虚拟服务器网络的性能、可扩展性和可管理性。 例如,将交换机从管理程序中脱离出来。虚拟交换机是解决交换多个独立操作系统(每个系统有独特的IP和MAC地址,共享相同的物理接口,这是以太网协议不涉及的情况)的特殊解决方案,虽然管理程序交换是可行的,但是还存在其他替代方案。 其中一种替代方法就是虚拟以太桥(Virtual Ethernet Bridging,VEB),它将桥接功能移动到一个智能NIC上,这个NIC支持所谓的单根I/O虚拟化(Single Root I/O Virtualization,SR-IOV)(这是PCI-SIG提出的标准)。SR-IOV将智能NIC划分为多个虚拟NIC,每个虚拟机分配一个NIC,它是通过为每个虚拟机提供独立的内存空间、中断和DMA流来实现的。这允许桥接发生在硬件,而不是在管理程序中。 当几年前英特尔提出这种方法时,这似乎是一种很有前景的解决方案,但是由于NIC之间较差的互操作性,以及随着每台服务器承载的虚拟机数量增加而带来的可扩展性问题,这种解决方案没有赢得市场的青睐。另外一个问题是:每个嵌入式桥成了另一个需要管理的设备(与软件交换机没有什么区别),并且管理功能没有被整合到整个网络管理系统中。由于部署的不同(即扩展功能不是该标准的一部分),不同的NIC可能具有不同的桥接功能,而这些通常不能进行互相操作。 另一个解决方案是完全摒弃虚拟交换机,而将交换功能移回到边缘设备,这也是每个网络工程师认为交换功能应该存在的位置。 这也是该引入两个新IEEE标准项目的时候了,这两个标准属于两个平行且很大程度上互补的路线,都是对基础IEEE 802.1 Q VLAN标签标准的修订。 第一个也是较为成熟的标准是802.1Qbg 边缘虚拟桥接(EVB)。在惠普推出其相关技术后,这个标准有时也被称为虚拟以太网端口聚合(VEPA),尽管惠普的VEPA实际上包含额外的专有功能。EVB的目的是允许多个虚拟机共享一个共同端口,而同时从外部桥(即作为反射继电器的边缘交换机)获取服务。通常情况下,以太网帧并不会转回它们进来的那个接口,这个动作会造成网络端口形成环路。EVB提供了一个标准方法来解决这个问题。作为一个相对简单的协议扩展,EVB很有吸引力,因为它可以部署在现有的硬件上,而只需对交换机和管理程序的软件进行升级。 不幸的是,EVB还只是起步阶段,它并不能解决政策管理问题,而且会给交换机带来更多广播和组播流量的负担。这些棘手的问题正在通过802.1Qbh桥端口扩展来解决。虽然Qbg并不能修改底层以太网数据包,不过Qbh端口扩展标准增加了一个标签,就像是标准VLAN标签,允许网络流量被映射到特定虚拟机,并当虚拟机在网络移动时跟踪虚拟机。 这两个标准的修订版在去年的冬天才发布,在两个主要支持者(思科和惠普)之间存在激烈的技术辩论,在短期内应该无法达成协议。虽然两家供应商都是通过虚拟机标签的形式来增加协议,但细节不同,惠普对MAC安全标签提出了修改,思科则提供了一种新的所谓的端口扩展标签。最终,这个问题将会通过标准过程得到解决。结果将是可互相操作的网络交换机和NIC,允许VM生成的流量能像其他网络流量一样管理。 标准发展的步伐缓慢意味着消除虚拟交换机层可能还要好几年。不过,现在有很多技术可以简化边缘和存储网络。 10千兆以太网交换机端口和NIC接口的价格已经破了500美元大关,并且随着今年主板局域网单芯片解决方案的推出,进一步的跌价是不可避免的。在刀片密集环境中,机架顶(TOR)拓扑比将电缆路由到端列头交换机更有意义。 然而,机架内部的电缆管理是一个问题,尤其是当使用刀片时。每个机箱有12个或者更多服务器模块,每个机架可能有50个或者更多服务器,也就是在完全冗余拓扑情况下,机架顶交换机有100多个Cat6电缆。路由所有这些铜线电缆不是简单的事情。这也是很多刀片设计转移到直通模块的主要原因,这将每个服务器的LAN连接从机箱背板路由到配线架,到集成交换模块(从单个机箱聚合流量的模块)。然而,正如我们前面提到的,这又给交换结构增加了一层结构。 维持更平面的物理网络有两个解决方案。一种解决方案是使用新的高密度电缆标准,特别是MRJ21,它将6个RJ45电缆聚合到单个机箱,然后通过刀片直通模块路由到TOR交换机。另一个方法是使用结构扩展器,例如思科的UCS 2100,本质上扩展了Nexus 5000 TOR交换机的背板到UCS刀片机箱。这些产品相对较新,虽然它们在特定供应商生态系统能够良好地工作,你需要根据你的具体需求来选择解决方案。 运行并行数据和存储网络的时代已经结束了,取而代之的是存储I/O负载。10GbE使用GigE实现了带宽价格的比价,能够为网络功能提供足够的带宽。这将是下一代虚拟服务器农场的默认存储网络配置。 根据特定I/O流量,从TOR交换机到聚合层的回程可以通过10Gbps链接或者移动到最近推出的40 GbE标准来实现。今年的Interop大会简直是40 GbE发布大会,Extreme Networks和Force10推出了边缘交换机模块,预计今年晚些时候会推出。诚然,40GbE很昂贵,大约每个端口1000美元。40 GbE需要Cat6A电缆,这是Cat6价格的两倍。 10 GbE提供了原始带宽,不过有几种方法可以将这种带宽用于共享存储。在以太网建立块级SAN可以通过使用iSCSI或者以太网光纤通道(FCoE)来实现。虽然都是使用以太网作为传输,区别在于iSCSI在第三层运行(使用IP来封装SCSI命令),而FCoE是纯粹的第二层。 FCoE并不是完全与本地光纤通道提供的网络可靠性相同,而增加了IEEE的数据中心桥接(DCB)任务组。DCB实际上融合了几个标准,目的在于解决本地以太网协议中的不足,并复制了FC和Infiniband功能,例如保证可靠性、拥塞通知、流量控制和流量优先级。iSCSI和FCoE之间的选择在很大程度上取决于你的现有基础设施。对于新建的部署,iSCSI绝对是不错的选择,它更加成熟,更加便宜。 一些虚拟环境可能能够完全避免SAN,因为现有管理程序版本(从VMware、Citrix Xen和Microsoft Hyper-V)可以支持通过NFS从NAS阵列启动虚拟机映像。 对于不要求阻止I/O的虚拟应用程序,有很多理由应该使用NFS,它更加容易安装、管理和扩展,更加便宜,并且,因为它是基于文件的,所以更加容易备份。 虚拟ADC 最新虚拟机管理平台的自动创建新机器以响应应用程序负载或者硬件故障的能力能够提高性能和可靠性。因此,虚拟机实时迁移和按需配置应该成为任何下一代环境的一部分。然而,“颠沛流离的”虚拟机不仅给网络管理和安全工具带来问题,而且还给传统负载均衡器(又称应用程序交付控制器)带来影响。 这是虚拟化带来的另一个问题,这也可以得到解决。 对于处理在很多服务器间平衡应用程序负载或者在故障情况下自动重定向流量到冗余DR站点的传统方法,通常是使用硬件负载平衡器与异地数据复制。一种新的虚拟网络负载平衡和广域网优化设备模仿了其之前硬件的功能,这些软件设备通常更加适合虚拟环境,因为它们能够无缝与底层虚拟机管理平台进行整合,允许自动化重新配置以响应虚拟机移动,并能根据负载增加来进行扩展,而不需要升级。 IT部门的不同团队负责不同的领域,网络、服务器和存储等,这些管理“孤岛”问题被虚拟化加剧了,并不能靠纯粹的技术解决方案来解决。IT经理必须明确每个管理任务的职责,例如服务器和存储配置或网络配置,然后协调不同团队的共同角色。根据信息周刊的调查,29%的受访者因为虚拟化而重组或者计划重组了他们的IT团队,另外21%的受访者认为需要重组,但还没有这样做。 虚拟交换机并不会很快消失,但是这些虚拟网络设备的配置和管理不应该完全交给服务器团队处理,仅仅因为他们拥有底层虚拟机管理平台的所有权。在技术允许虚拟端口管理可以在全面的管理工具中进行之前,网络和服务器团队必须共享虚拟平台的权利。供应商正在通过软件解决这些管理问题,例如思科与VMware合作,将VMware的vSphere整合了思科的Nexus 1000V软件交换机。 网络团队必须考虑扩展器架构来方便监控、安全和故障排除工具,例如使用虚拟跨度端口(混杂模式端口镜像) 虚拟基础架构,真正的影响 企业虚拟化正从简单的服务器整合发展为新型类似云计算的数据中心基础设施。这种转变必然会给网络带来新的要求,要求增加容量,重新设计的交换机脱坡,新的管理软件和融合数据和存储网络。 对于虚拟化给网络带来的诸多问题,需要开发新的技术和新标准来解决,同时,企业还应该对虚拟化采取战略方法以确保IT团队某个部门获得利益而不会给另一个部门造成问题。 虽然实现高度虚拟化基础设施还有很长的路要走,但是最终的结果将会使企业的性能、可靠性、灵活性和效率达到新的高度。
本文出自:亿恩科技【www.enkj.com】 |