|
谨慎对待重复数据删除技术重复数据删除正在成为业界广为追捧的热门技术。所谓重复数据删除技术,就是指扫描工作服务器磁盘数据,判断数据是否为重复或冗余。其原理就是通过算法切割磁盘里的数据成为区块(Block)或是区段(Segment),并为每一个分割单位求出一个特征值(unique ID),即可以代表此区块的数据。 据有关分析机构表示,重复数据删除并不是删除冗余数据的唯一方法,用户还可以考虑采用管理、简化数据的技术。例如目前市场上可以看到的数据压缩技术,虽然删除率较重复数据删除率要低,但相比却更稳定。 目前,重复数据删除技术在实现上可分为两类,即内处理(Inline processing)和后处理(Post processing)。虽然各存储厂商都会对其采用的方式进行“辨证”的正向推广。但事实上,这两种方式也都各有利弊。Inline processing发生在数据从备份服务器接收并存储到磁盘的时间,因为与备份过程同步,其面临最大的考验就是速度,而Post processing则发生在备份处理之后,虽然不会减缓数据备份的处理过程,却有数据失真和完整性隐患。但因为其避免了备份和重复数据删除之间的冲突,相对来说更适合大型的企业。由此看来,用户更需要的是能够将两者相互整合的解决方案。 需要注意的是,IBM并没有计划将重复数据删除技术添加到其虚拟磁带库产品中,而Sun不但没有在其任何一个高端系统中宣布支持重复数据删除,而且还对其虚拟磁带库产品的计划也是闭口不谈。厂商们保守的态度与年初市场分析机构所认为的重复数据删除技术会随着整合进整体解决方案而发展显著的说法显然是大相径庭。因此,笔者认为,在一切情况都还未明朗的前期,对重复数据删除技术的选择还是要谨慎为妙。 【相关文章】 责编: 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:kaiyun体育官方人口
文章著作权分属kaiyun体育官方人口
、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 |
|