Deduplication

Backup Exec 2010 中的重複數據刪除選項 - 它是這樣工作的嗎?

  • June 4, 2011

我們有一個執行 Backup Exec 2010 的 6TB 磁碟備份系統。每週都會執行一次完整備份,並在其他日子進行差異備份。我們設法在那裡進行了大約四個星期的備份。

首先,我是否認為重複數據刪除選項會更有效地使用此備份到磁碟空間?例如,在這四個星期的每一個星期中,相同的 4GB 文件被備份四次(已用空間 = 16GB),但重複數據刪除只儲存第一個副本?

其次,如果啟用重複數據刪除,它是否會立即生效,或者重複數據刪除是否需要時間才能波及 B2D 領域?

前者需要在現有 B2D 文件上執行作業,定位重複項並將 BKF 文件標記為可覆蓋。

後者會更容易實施,因為它只會影響未來的備份。

如果我是一個賭徒,我會選擇後一種選擇;-) 更容易編碼…

我現在已經安裝了 Backup Exec 2010 的試用版並且可以回答我自己的問題:

首先,您不能使用現有的磁碟備份系統並將其轉換為重複數據刪除儲存。去重是一種完全不同的機制,是BE中的一種新型儲存。您可以創建一個新的重複數據刪除儲存區域,就像創建一個備份到磁碟的儲存區域一樣。

因此,我關於它是否對現有 B2D 文件夾進行重複數據刪除的問題是“否”。

如果您嘗試使用相同的儲存介質,這確實會帶來從 B2D 切換到重複數據刪除的棘手問題。由於 BE 從不刪除 B2D BKF 文件,因此您必須在媒體過期時手動執行此操作。

其次,BE de-dup 是基於塊的,預設為 64k 塊。最重要的是必須維護字典數據庫以允許它散列重複塊。de-dup 文件夾結構比 B2D 複雜得多。

第三,是的,BE 2010 對 RAM 的要求很高。我在一個 1GB W2k3 VM 中進行測試,發現它執行起來就像一頭三足驢。它總共消耗了 1.5GB,因此頁面文件被顛簸。因此,我認為在考慮使用重複數據刪除之前,我們需要升級我們的實時備份伺服器。

乾杯,羅布。

針對重複數據刪除儲存系統(或 BE 的重複數據刪除引擎)使用 B2D 的正常設置是執行 1 個完整備份,然後“永遠增量”。這是充分利用重複數據刪除的首選方法,但它可能並不適合所有數據中心。

重複數據刪除有多種形式。我現在不記得一個 BE 使用什麼,但它們都創建數據塊的校驗和,然後將其與數據庫進行比較,看看它是否已經儲存在其他地方。

Backup Exec 對執行重複數據刪除有相當高的系統要求,您應該意識到這一點。如果我沒記錯的話,在備份週期中每 1TB 數據需要 1GB RAM。

在啟用該選項的情況下執行完整備份後,您應該注意到重複數據刪除效果。如上所述,這基本上是您的“基礎”數據,其中每個增量備份都將對完整備份進行重複數據刪除。

我認為不需要使用現有的 B2D 文件。為什麼不直接將您的下一個完整備份指向 B2D 儲存上稱為“重複數據刪除”的文件夾或類似的東西?

引用自:https://serverfault.com/questions/180905