以下是配置重复数据消除数据存储的重要参数:
数据目标用于存储受保护的数据。 最好将较大的磁盘用作数据目标,因为它包含源的原始数据块。
索引目标用于存储索引文件,最好使用不同磁盘,这样能够改善重复数据消除处理吞吐量。
哈希目标用于存储哈希文件,最好使用高速 SSD 驱动器,这样能够以较低的内存分配需求来改善重复数据消除容量。
如果在高速 SSD 上配置哈希目标,它能够以较低的内存分配需求来扩大重复数据消除容量。
.D2D 文件和编录文件驻留的目标文件夹。
“重复数据消除块大小”也会影响“重复数据消除容量估计”。 默认的“重复数据消除块大小”是 4 KB。 如果将其设置为 8 KB,“重复数据消除容量估计”将加倍。 增加重复数据消除块大小的影响是可以减少重复数据消除百分比,同时内存要求也会降低。
要估计内存要求,请使用“预测内存和存储要求”工具。 如果已分配内存不够,并且内存被完全使用时,新建数据将无法把新哈希插入到哈希数据库中。 因此,在这之后备份的任何数据都无法消除重复数据,从而会导致重复数据消除比率下降。 如果因某种原因而无法增加内存,那么请尝试增加重复数据消除块大小,因为这样会降低内存要求。
注意:无法为现有数据存储更改块大小。
请注意,一旦哈希内存被占满,将不允许启动新的备份作业。 但是对于正在进行的备份作业(其在哈希内存被占满前启动),允许其继续运行直到完成。 在这种情况下,新的哈希密钥将不会插入到哈希数据库中。 因此,重复数据消除百分比将受到影响。
原因是,正在进行的备份作业的所有数据块仍然会与哈希数据库中的现有哈希密钥进行比较:
• 如果前者与现有哈希密钥重复,它将不再被写入磁盘。
• 如果前者与现有哈希密钥不重复,它将被写入磁盘。 但是新的哈希密钥将不会插入哈希数据库中,因为哈希数据库已满。 因此,后续数据块将无法与这些新的哈希密钥进行比较。
版权所有 © 2015 Arcserve。
保留所有权利。
|
|