|
应用正当时 重复数据删除软件大揭密重复数据删除目前正在成为数据备份和恢复方面最为重要的一项技术,以相对合理的价格提供了简易地成本节省方式。 有一种解决方案,他说,可以为一些诸如大型数据库之类的对重复数据删除有较高要求的环境部署相应设备,而对较轻量级的以及可管理的重复数据删除工作中使用软件。“在数据库之类的大型项目上运行重复数据删除会拖垮整台服务器,反之使用相应设备则是这种环境下的最优选择”他说。 案例分析:咨询公司应用CommVault Simpana Paul Slager是美国LWG咨询公司信息系统部门的总监。该公司在美国有16家分公司,在全球有另外4家分公司,其最近选择了软件的重复数据删除方式。这家公司致力于技术型容灾咨询,处理诸如数据恢复等灾后问题,其多半代表了用户,运行着诸多虚拟服务器并通过相对较慢的WAN网络连接实现备份。Slager 说道,“客户端方面的重复数据删除和全局重复数据删除以及压缩是我们考虑的方面”。 Slager 说其正在寻求具备卓越的重复数据删除能力的备份解决方案。“我们的公司有百万计的高分辨率文件存储在我们的文件服务器上,为期12年。我们希望尽可能进行重复数据删除和压缩,”他说道。他最初了解过IBM公司的Tivoli Storage Manager,CommVault的产品以及EMC公司的Avamar和Data Domain,决定重复数据软件的方式是最为经济的。软件实现方式同时可以让他使用其自有的存储。“使用某个存储设备,你通常是用每GB或TB的付费方式,这实际比基本的SATA和光纤磁盘驱动器要贵出很多,供应商倾向于在这上面大幅提升价格”他说。 最后,他选择了CommVault Simpana 9.0,这“似乎有了全部应该有的,”Slager说,除了重复数据删除功能,软件还提供了其他“简单的功能”,诸如Simpana允许暂停或恢复备份操作,这在公司较慢的WAN中是有用的。“现在假设一台服务器宕机,我不用再重启整个备份,”他解释说。 Slager说他认为这次使用CommVault的成功经历同样也归功于准备工作。“在一开始,我布置了一个框架,并收集了一长串需求,包括其如何影响我们存储分布,如何配合容灾计划,以及我们的恢复点和恢复时间目标,”他说。 Slager 说,他逐步开始理解到实现高重复数据删除率对于任何产品都会有些困难。不过,他希望他的虚拟主机、数据库和Exchange数据会有较好的重复数据删除。 “我实际上运行过EMC用于Avamar的评估工具,来观测我们的重复数据删除率,并确定我们所需购买的备份存储大小,”他说。这个工具评估在开始时需要 5TB的空间。而使用CommVault后超出了这一假设。事实上,他说,部署CommVault后初始容量仅有3.2TB.这一重复数据删除率比他预计的要好。 迄今为止,Slager说他记录了以下运行中的比率: - VMware上运行的虚拟主机的重复数据删除率达到84%,“这非常不错,”他说。 - Microsoft Exchange 2010备份的重复数据删除率为68% - Windows物理服务器的重复数据删除率为77% - 用于共享所有图片文件的My File的重复数据删除率为11% - Microsoft SQL数据库备份的重复数据删除率为64% - Microsoft SharePoint数据库和文档的重复数据删除率为57% 这些数字似乎和分析师所预见的一致。例如,Whitehouse说虽然供应商宣称“普遍的”从500:1到“更正常的”20:1,ESG研究发现大部分最终用户使用重复数据删除达到的比率在10:1到20:1之间,只有很少一部分可以达到30:1的高比率。 责编:张泽牧 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:kaiyun体育官方人口
文章著作权分属kaiyun体育官方人口
、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 推荐圈子 |
|