大数据如何重塑政府数据中心

来源: 企业网
2014/2/25 20:09:08
大数据是指超大型数据集的处理问题,这挑战了传统数据管理和分析技术。

分享到: 新浪微博 腾讯微博
本文关键字: 大数据 数据中心

大数据所带来的影响几乎无处不在,不管是高性能的计算机领域,还是大城市的运营和规划部门,大量的数据在各地喷涌而出。

但,有一个因为大数据而产生实质性影响的领域却较少得到了关注:那就是数据中心自身,技术经理普遍认为大数据会逐渐对传统数据系统和实践进行重塑。

大数据是指超大型数据集的处理问题,这挑战了传统数据管理和分析技术。这些大数据集的增长,以及从中提取价值的必要性,都迫使机构开始使用诸如Apache基金会的Hadoop分布式计算框架、柱状数据库以及其他大数据管理的解决方案。

这些技术的采用,反过来,也逐渐重组了数据中心,包括部署更多融合计算基础架构,改变数据中心流量模式,以及改变基本的存储成本。

鉴于惊人的数据增长,政府机构对大数据管理的兴趣并不令人意外。惠普大数据和云计算解决方案的策略师Van Young,引用IDC的数据表示,与2012年的1.8ZB数据相比, 到2020年,全球数据将计划达到40ZB(10万亿字节)。

在政企市场,这种规模的数据管理已经开始对传统的IT系统发起挑战,并且会促进数据中心管理者采用几年前被认为是非常另类的解决方案。Young最近在美国政府部门合作伙伴的大数据会议上表示,“你需要配置一些新科技。”

变革的推动者:Hadoop

Hadoop在一众新晋技术中显得非常引人注目。这一开源软件框架包括Hadoop分布式文件系统(HDFS),它将大数据集分发到Hadoop集群的服务器里。Hadoop的另一个关键是MapReduce,它提供了跨集群的分布式数据处理。这种结构使得数据和处理资源一直保持很近的距离。

Hadoop集群服务器通常以千兆以太网或10千兆以太网进行相互连接。所有这些Hadoop架构内的新技术正在朝融合数据中心架构的方向发展。

“当你想到Hadoop的时候,是存储、服务器和网络,以及它们之间集群通信的结合。”Young认为这是Hadoop与先前各自孤立的服务器和存储管理的不同之处。

“Hadoop改变了数据中心基础架构的前景。”Young认为,“融合架构才是真正的关键。”

不过,Hadoop的影响在每个政府机构中大相径庭。博思艾伦汉密尔顿策略创新集团的总裁Peter Guerra认为,许多联邦机构正在试水Hadoop。一些机构正努力把Hadoop作为数据中心日常运营的一部分。

共2页: 上一页1 [2]
责编:王雅京
vsharing 微信扫一扫实时了解行业动态
portalart 微信扫一扫分享本文给好友
著作权声明:kaiyun体育官方人口 文章著作权分属kaiyun体育官方人口 、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。
最新专题
IT系统一体化时代来了

2009年Oracle 用Exadata服务器告诉企业,数据中心的IT服务一体化解决方案才是大势所趋,而当前企业对大数据处理的..

高性能计算——企业未来发展的必备..

“天河二号”问鼎最新全球超级计算机500强,更新的Linpack值让世界认识到了“中国速度”。但超算不能只停留于追求..

    畅享
    首页
    返回
    顶部
    ×
    畅享IT
      信息化规划
      IT总包
      供应商选型
      IT监理
      开发维护外包
      评估维权
    客服电话
    400-698-9918
    Baidu
    map