|
数据中心简化的黑马——I/O虚拟化一说起数据中心需要简化的话题,大概人人都会同意,结构复杂的数据中心大概谁都想一简而后快吧。 而谈到这方面的技术是一般都会出现两个候选者:一个是由思科和博科主导的数据中心以太网(简称DCE),另一个就是由Voltaire和Mellanox推动的infiniband技术。无论是DCE还是infiniband技术都可以在其他网络协议的基础上在其内部粗管(fat pipe)中进行输入输出(I/O)虚拟化。但是,还有第三种方式无需昂贵的粗管(fat pipe)来连接服务器的技术。考虑一下PCIe技术吧。下面请听我分解: 我们都知道,数据中心里包含服务器、存储及网络资源这三个组成元素。现在的服务器,无论刀片的还是机架的大部分都采用了虚拟化技术。每台机架物理服务器实际上要进行虚拟化都至少配备两台I/O适配器。都必须通过以太网网卡和光纤通道HBA。存储区域网络(SAN)结构非常昂贵且复杂,并带有交换机和导向器,其通过存储阵列访问服务器。通过光纤通道协议及分层以太网(FCoE)的单独光纤通道可以摆脱以往使用以太网作为通道的方法。 但是,因为以太网数据包具有不稳定的潜伏期,可能会打破光纤通道的连接。数据中心的世界正在等待DCE解决这两个问题。这将需要服务器具有FCoE支持网卡,融合网络适配器(联网学院)为他们联接DCE的基础设施。 全面看来,Infiniband(IB)已经拥有很高性能的统一架构了,同时应用IB来作为数据中心的统一构造标准。在Voltaire和Mellanox研发的IB中,其交换机启动时速就可以过渡到40GB/s。Infiniband的骨干主要是依赖运行光纤通道和以太网。 与其寻找简化数据中心骨干网络的办法,不如在数据中心网络的边缘寻找解决办法。VirtenSys,一个以PCIe模式帮助服务器虚拟化的网络数据中心简化方案的公司,它可以帮助数据中心减少网络适配器的数量。 VirtenSys认为服务器是通过像以太网、光纤通道及Infiniband这样的网络后,再通过适配器来传输数据到本地的支持SAS或者SATA协议的存储设备的。在一个X86服务器中,所有东西都需要最终连接到PCIe总线,并由其来管理服务器内存及CPU应用的进程。这根总线可以延伸到外面其他的服务器中。为何不把这根PCIe总线通过适配器延伸到所有的服务器中, 而是每个服务器都用着一根PCIe总线呢?这样不是浪费吗?而这个交换机其实是虚拟出来的,让所有的服务器都认为它还是在本地的适配器中运行。这也就是说10个服务器可以共享一个网卡和主机总线适配器(HBA),另外的9个网卡和HBA就可以扔掉了,如此一来就节省了很多能源及消耗。把存储磁盘插入这样的交换机,就能让服务器从中读取数据并共享给其他服务器。像这样的I/O虚拟化可以大大减少硬件设施的数量,并获得更高的能效。 事实上,这种I/O虚拟化还可以做成"云"。如果那样的话就只需要做成一个共享的网卡、HBA和Infiniband插入到适配器中就可以了,这样一来,资源又大大节省了。在涉费金额上这个方案似乎也不错。让我们来看一个实例,以一个拥有5台服务器机架,并且每台机架上有20个网卡和HBA。假设要做迁移,我们需要谨慎的来部署,2个共享网卡和两个HBA就可以做到原来90个网卡和HBA所做到的事情了。每个服务器机架或者刀片还可以共同分享一个直连存储(DAS),因此存储硬盘的数量也相应减少了。 该供应商一直很低调,去年12月时也只能在其官网上看到少量有趣的白皮书和新闻稿。而2005年的时候,他们既没有产品也没有客户,几乎无迹可寻,而从现在看来,他却当之无愧的成为了业界的一匹黑马。 多想想这样的情景吧,服务器正被虚拟化的低成本和低能耗。网络也正虚拟化的低成本和低能耗。存储也是如此,下面的由你自行想象。而扩展到PCIe上的虚拟化却显得有些弥足珍贵,还有它所涵盖的云理念更是意义非凡。 责编: 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:kaiyun体育官方人口
文章著作权分属kaiyun体育官方人口
、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 推荐圈子 |
|