|
八大自动分层存储产品技术对比比较自动分层存储技术时,需注意的功能与参数,包括支持的存储层级数目(除IBM只分2层外,其他大都分为3层)、针对各存储层I/O负载与效能的监控功能等,不过最重要的两个标准分别是“精细度”与“运算周期”。 本文关键字: 存储产品 比较自动分层存储技术时,需注意的功能与参数,包括支持的存储层级数目(除IBM只分2层外,其他大都分为3层)、针对各存储层I/O负载与效能的监控功能等,不过最重要的两个标准分别是“精细度”与“运算周期”。 “精细度”是指系统以多大的磁盘单位,来执行存取行为收集分析与数据迁移操作,这将决定最终所能达到的存储配置最优化效果,以及执行重新配置时所需迁移的数据量。 理论上越精细、越小越好,不过副作用是越精细,将会增加追踪统计操作给控制器带来的负担。假设1个100GB的LUN,若采用1GB的精细度,系统只需追踪与分析100个数据区块,若采用更精细的10MB精细度,那就得追踪分析1万个数据区块,操作量高出100倍,同时对应于数据区块的metadata数据量也随之大幅增加。 “运算周期”则是指系统多久执行一次存取行为统计分析与数据迁移操作,这会影响系统能多快的反映磁盘存取行为的变化,运算周期越短、越密集,系统将能更快的依照最新的磁盘存取特性,重新配置数据在不同磁盘层集中的分布。 反之,若运算周期间隔太长,很可能磁盘存取状态已发生重大变化,但整个系统仍必须慢吞吞地等到下次统计分析与数据迁移时间到来,才能重新分派磁盘资源。不过若运算周期太密集,也会造成统计分析与数据迁移操作占用过多I/O资源的副作用。 以这两个指标来看,EMC的第一代FAST与HP 3PAR的Dynamic Optimization,由于以整个LUN或Volume为运算单位的密度太过粗略,算是已经过时的技术,因此都已被新一代的Sub-LUN型技术所取代。 Dell Compellent的Data Progression虽然推出时间已相当久,但512KB~4MB的精细度仍是当前最精细的(预设为2MB),领先其他厂商有相当距离,理论上有助于达到更好的磁盘配置最优化效果。不过只提供24小时的运算周期设定,给与用户的弹性较低,若用户磁盘存取状态变化很快,24小时的周期将会跟不上变化。 EMC新一代的FAST VP则有较弹性的设定,目前FAST VP分为两种,搭配VMAX存储设备的FAST VP采用最小达7.6MB的区块,精细度之精细仅次于Dell Compellent的Data Progression.在运算周期方面,FAST VP的统计分析排程与数据迁移排程介面可提供以日或周为基准的周期设定,也有允许系统随时执行数据分析与迁移的模式,此时的数据迁移周期可缩小到最短30分钟,能更快的反映磁盘存取行为的变化。 EMC另一种搭配VNX系列存储设备的FAST VP,则采用较大的1GB精细度,以及以日(24小时)或周为基准的运算周期设定,相较下便比较平庸。 HDS的Hitachi Dynamic Tiering(HDT)技术也相当平衡且拥有弹性,42MB的精细度虽然比不上EMC与Dell Compellent,但也算是相当精细。在运算周期方面,可选择最短30分钟,到1、4、8、24小时等不同周期设定,较能适应不同类型环境的需要。 IBM的Easy Tier亦分为两种,搭配DS8700磁盘阵列的Easy Tier精细度与周期固定为1GB的区块与24小时,在同类技术中并不突出;搭配Storwize V7000存储设备的East Tier,精细度则视与Volume容量对应的扩展数据区块(extent)而定,系统预设值为256MB,运算周期则为24小时,规格与弹性较DS8700的Easy Tier略佳,但与其他厂商相比仍有差距。 HP 3PAR的Adaptive Optimization则缺乏可供对比的细节数据,仅宣称属于Sub-Volume层级,但实际运算的精细度与可选的排程周期均未公开。 责编:张欢 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:kaiyun体育官方人口
文章著作权分属kaiyun体育官方人口
、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 |
|