Backup

通過備份到 Amazon S3 來減少 rsync/rclone 負載的巧妙方法?

  • January 2, 2019

我開始執行 rclone 以在我的筆記型電腦上保存一組文件,這些文件同步到雲端並加密。由於信任問題,我想“控制”加密。Rclone 在這方面做得很好,我用它做很多東西,但這意味著那裡的文件數量越來越大,這讓我花錢。

我考慮了替代方案,例如僅同步 zip 或 rdiff 文件或其他文件中的差異。很明顯,這可能會奏效,但它有一些缺點或需要管理的障礙。

首先,S3 儲存不是真正的 rsync 伺服器,因為它不僅複製文件中更改的部分。如果我想更改為將 blob 發送到雲的系統,它需要智能來知道那裡已經存在什麼。

我正在尋找的功能是:

  • 備份的最小連接負載,
  • 當我愚蠢地刪除文件時能夠快速恢復。
  • 伺服器上儲存的文件數量少
  • 完整或接近完整的文件歷史記錄
  • 我可以為此編寫一個腳本來減輕我的大腦負擔,以找出同步時需要包含的所有選項。
  • 理想情況下,它可以與多個設備一起使用,儘管我不會同時使用多個設備。
  • 我應該控制加密(在本地完成)和密鑰

我在這裡發布這個是因為我認為這個問題會為許多有伺服器類型使用要求的人提供一個有價值的答案。

提前致謝

$$ EDIT: Added that I want full control of encryption keys and encryption should be done locally before transfer $$

我建議尋找支持 S3 的備份軟體,幾乎所有的都是。

我過去使用過或現在使用過以下兩個 - 使用 Google 的 GCS,但它們也支持 S3:

  • Duplicity允許增量備份,儘管偶爾需要完全備份
  • 重複是一種幻想,它允許跨機器進行重複數據刪除。雖然它對我來說似乎不太穩定,即有時我的快照會失去一些文件。

引用自:https://serverfault.com/questions/946594