重复数据删除是如何影响服务器恢复过程的?点击次数:862 发布时间:2014-12-17 11:56:32 |
人们非常关注备份中的重复数据删除过程,尤其是重复数据删除在什么时间、什么位置、如何影响数据写入过程,以及影响程度有多大。虽然人们比较关注,但并不意味着人们已经了解重复数据删除如何影响恢复过程,尤其是能在多长时间内调用数据,实现恢复。山东天和服务器恢复中心小编将针对此为您详细解析!
人们对二级存储市场的关注主要集中在磁盘备份模式中的重复数据删除技术。重复数据删除具有许多优点。你不仅可以将磁盘中的数据保留更长时间,还可以将磁盘备份策略扩展到环境中的其它层应用程序。这两种做法都能大大减少备份时间(通过磁带备份),更好地共享环境中的数据。重复数据删除技术可以减少数据所占容量,以及网络流量——具体情况根据在哪使用该项技术而定;从而影响那些通过LAN、SAN或WAN实现转移的数据卷,这样,公司就可以为远程办公室或分公司实施备份整合,完成离线复制,供灾难恢复时使用。采用磁带备份策略时,需要在两个站点之间处理和转移物理介质,而这两种情况都能显著提高磁带备份的性能。
恢复过程中,你所需的数据可能不是存储在连续的磁盘块中,甚至存储在未经重复删除的备份中。当备份数据过期、存储空间释放时,就会产生存储碎片,延长恢复时间。由于数据及其指针可能是无序存储,被删除的重复数据也会产生碎片,从而降低恢复性能。
一些提供重复数据删除功能的备份和存储系统供应商预料到了恢复过程的性能问题,并将产品优化,解决磁盘碎片问题。ExaGrid Systems 、Sepaton等供应商的解决方案可以完整地保存最近一次的备份副本,因此,最近一次备份的数据能迅速恢复;而其它的解决方案则需要几天、几星期甚至几个月才能重构数据。其它解决方案在备份期间分散重复数据删除的负荷,而在恢复期就集中负荷,以加快恢复速度。这种情况同时使用了软件和硬件方法。如果供应商能加快多个节点的重复数据删除速度,并允许添加节点,那么其性能扩展能力就优于那些只有一个摄取点/处理点的产品。
性能由多方面的因素决定,包括备份软件、网络带宽、磁盘种类等。单个文件的恢复时间与完全恢复截然不同。因此,你应该测试重复数据删除技术在各种恢复场景下的运行情况,尤其是当数据恢复需要较长时间时更应如此,从而判断重复数据删除技术对你的环境有什么影响,这一点非常重要。