|
大数据流量:数据中心发展的瓶颈
我们都知道,大数据通常与数据中心不断增长的结构和非结构化工作负载相关。而网络负责处理传输到服务器、存储阵列和云服务的数据流量。
我们都知道,大数据通常与数据中心不断增长的结构和非结构化工作负载相关。而网络负责处理传输到服务器、存储阵列和云服务的数据流量。服务器之间的密集型I/O吞吐量常常发生在数据中心或者广域网之间。伴随着大数据的来临和应用的不断增长,新的问题将会出现。由于传统的IT设施在当初设计的时候,没有考虑到大数据的情形,瓶颈问题将变得更加普遍,尤其是在存储一端,问题更加明显。 这样一来,IT业务中就会出现一种新的分支:面向新一代数据中心的数据管理。下面,我们就给大家介绍大流量阻碍数据中心发展的几大缘由: 一、大流量是一种新型工作负载 大流量是指横跨广域网连接的数据中心内服务器间的通信流量,它不同于通常情况下的大数据工作负载——也就是用户对机器或者机器之间的通信流量。 二、传统IT不能胜任大流量要求 导致大流量出现的主要原因是IT过去几年所形成的优势:虚拟化的广泛部署和扩展系统;远程实时迁移;数据复制和备份;专门针对基于WAN分布式系统而编写的尖端应用,比如Hadoop, MapReduce, MongoDB和Cassandra。 三、大流量增长没有止境 大流量增长没有具体的指标可供参考,它的增长将永无止境。Forrester Research预测说,在未来几年,由机器运行产生的应用数据将达到50%的年增长。而且,存储巨头EMC官方发布过一份报告,认为在2009至2020年间,将实现44倍数据扩容,这意味着数据带来的流量增长将是一个巨大挑战。
责编:赵龙
微信扫一扫实时了解行业动态
微信扫一扫分享本文给好友
著作权声明:kaiyun体育官方人口 文章著作权分属kaiyun体育官方人口 、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。
|
最新专题
|
|