大数据不需要虚拟化?其实不然

来源:企业网   
2013/11/1 14:28:21
对于担负计算节点任务的服务器而言,其处理能力应该接近极限,因为,如果计算节点可以独立承担任务,甚至还有挖掘“潜力”的能力,那么,还要并行计算做什么?基于此,大数据应用不需要虚拟化,这应该是一个结论。

本文关键字: 大数据 虚拟化 云计算 存储

大数据并不需要虚拟化,原因似乎很简单,因为虚拟化技术的核心思想是资源池化,借助池化资源的调度来充分使用资源,提高资源的利用效率。但CPU利用率已达到70%~80%时,虚拟化显然就没有更多的意义了。

虚拟化并不是适应所有场景的,例如HPC领域,虚拟化基本就派不上用场。分析一下大数据的应用场景,其核心就是利用X86等相对廉价的服务器,对海量的价值密度相对低的非结构化数据、半结构化数据进行处理和分析,借助分布式文件系统(NFS)对数据进行并行的海量处理。对于担负计算节点任务的服务器而言,其处理能力应该接近极限,因为,如果计算节点可以独立承担任务,甚至还有挖掘“潜力”的能力,那么,还要并行计算做什么?基于此,大数据应用不需要虚拟化,这应该是一个结论。

今年8月当VMware宣布推出vSphere Big Data Extension方案的时候,多少让人摸不着头脑,大数据与虚拟化是怎么样产生交集的呢?在10月30日~31日举行的VMware vForum 2013会议期间,记者有幸采访了VMware全球副总裁、CPD及全球研发兼中国研发中心总经理李严冰博士,以及VMware云应用平台及服务中国总经理任道远先生,任道远同时也是VMware中国研发中心副总经理,同时兼任VMware上海研发中心的总经理。

在解答我的疑问之前,李严冰博士首先透露一个最新的任命,她将不再担任VMware中国研发中心总经理,将集中经历主管全球的研发工作,其职位将由任道远来接替。“虽然不再担任中国研发中心总经理,但在工作上与中国研发中心还有很多交集,仍然会一如既往关注VMware中国用户的需求。”她说。

接下来,李严冰博士回答了我的疑问。她表示,的确很多人会认为大数据不需要虚拟化。VMware之所以宣布vSphere Big Data Extension,也为了给用户更多的选择。用户可以选择物理机、也可以选择虚拟机来构建大数据应用环境。而选用虚拟机将为用户带来更多的灵活性,让系统能够应对不同规模的大数据应用的需求。李严冰博士,需要看到Hadoop应用环境部署还是相对复杂,对于技术人员有一定的要求,为了降低部署的复杂度,VMware vSphere Big Data Extension提供大量的集成性的工作,简化Hadoop的部署。

共2页: 上一页1 [2]
责编:王雅京
vsharing微信扫一扫实时了解行业动态
portalart微信扫一扫分享本文给好友

著作权声明:kaiyun体育官方人口 文章著作权分属kaiyun体育官方人口 、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。
最新专题
IT系统一体化时代来了

2009年Oracle 用Exadata服务器告诉企业,数据中心的IT服务一体化解决方案才是大势所趋,而当前企业对大数据处理的..

高性能计算——企业未来发展的必备..

“天河二号”问鼎最新全球超级计算机500强,更新的Linpack值让世界认识到了“中国速度”。但超算不能只停留于追求..

    畅享
    首页
    返回
    顶部
    ×
      信息化规划
      IT总包
      供应商选型
      IT监理
      开发维护外包
      评估维权
    客服电话
    400-698-9918
    Baidu
    map