|
大数据不需要虚拟化?其实不然对于担负计算节点任务的服务器而言,其处理能力应该接近极限,因为,如果计算节点可以独立承担任务,甚至还有挖掘“潜力”的能力,那么,还要并行计算做什么?基于此,大数据应用不需要虚拟化,这应该是一个结论。 大数据并不需要虚拟化,原因似乎很简单,因为虚拟化技术的核心思想是资源池化,借助池化资源的调度来充分使用资源,提高资源的利用效率。但CPU利用率已达到70%~80%时,虚拟化显然就没有更多的意义了。 虚拟化并不是适应所有场景的,例如HPC领域,虚拟化基本就派不上用场。分析一下大数据的应用场景,其核心就是利用X86等相对廉价的服务器,对海量的价值密度相对低的非结构化数据、半结构化数据进行处理和分析,借助分布式文件系统(NFS)对数据进行并行的海量处理。对于担负计算节点任务的服务器而言,其处理能力应该接近极限,因为,如果计算节点可以独立承担任务,甚至还有挖掘“潜力”的能力,那么,还要并行计算做什么?基于此,大数据应用不需要虚拟化,这应该是一个结论。 今年8月当VMware宣布推出vSphere Big Data Extension方案的时候,多少让人摸不着头脑,大数据与虚拟化是怎么样产生交集的呢?在10月30日~31日举行的VMware vForum 2013会议期间,记者有幸采访了VMware全球副总裁、CPD及全球研发兼中国研发中心总经理李严冰博士,以及VMware云应用平台及服务中国总经理任道远先生,任道远同时也是VMware中国研发中心副总经理,同时兼任VMware上海研发中心的总经理。 在解答我的疑问之前,李严冰博士首先透露一个最新的任命,她将不再担任VMware中国研发中心总经理,将集中经历主管全球的研发工作,其职位将由任道远来接替。“虽然不再担任中国研发中心总经理,但在工作上与中国研发中心还有很多交集,仍然会一如既往关注VMware中国用户的需求。”她说。 接下来,李严冰博士回答了我的疑问。她表示,的确很多人会认为大数据不需要虚拟化。VMware之所以宣布vSphere Big Data Extension,也为了给用户更多的选择。用户可以选择物理机、也可以选择虚拟机来构建大数据应用环境。而选用虚拟机将为用户带来更多的灵活性,让系统能够应对不同规模的大数据应用的需求。李严冰博士,需要看到Hadoop应用环境部署还是相对复杂,对于技术人员有一定的要求,为了降低部署的复杂度,VMware vSphere Big Data Extension提供大量的集成性的工作,简化Hadoop的部署。 责编:王雅京 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:kaiyun体育官方人口
文章著作权分属kaiyun体育官方人口
、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 推荐圈子 |
|