Amazon-S3

使用 tar 的頻寬友好型備份策略?

  • September 24, 2011

直到最近,我們一直tar在我們的文件伺服器上備份和壓縮(gzip)選定的目錄,結果非常好。

我們的每一個備份都儲存在鏡像 (RAID) 硬碟上,並同時上傳到 Amazon S3 儲存桶以進行異地儲存。

隨著我們的數據規模最近迅速增長,我們的備份也迅速增長。本週,我們的備份上傳一直 24/7 不間斷執行,只是為了同步過去 7 天的新備份,但仍未完成。獲得更好的連接將解決其中的一些問題(我們目前無法做到),但我認為創建一個真正的解決方案而不是尋求解決方法應該更好。

有什麼替代策略可以讓我們遠離多位數的千兆字節文件並仍然讓我們使用tar,我們可以使用備份目錄來減少同步文件所需的頻寬量嗎?

這裡有很多未知變數。你的備份的大小是多少,你的頻寬限制是多少,你想要增量備份還是完整備份等等。

無論如何,一些建議:

  1. 在使用壓縮(-C 選項)時通過 ssh 使用 rsync。Rsync 將大大減少每次備份傳輸所需的數據量。壓縮還將減少所需的頻寬量。
  2. 如果頻寬有限,請考慮備份到本地磁碟。如果您想要異地備份,您可以隨時將它們郵寄到異地。隨著儲存空間的爆炸式增長,您真的不應該將其作為一個有效的選項來消除,因為頻寬並沒有增加以匹配。

$$ edit $$我注意到你的增量標籤。Amazon S3 儲存桶是否支持快照?這將處理增量方面。

引用自:https://serverfault.com/questions/315185