Backup

遠端備份到 AWS S3 的重複性

  • January 12, 2016

我正在使用 Bacula 和 S3 進行備份。我將 bacula 卷保存 60 天左右。使用重複性,因為我想使用 GPG 加密卷。有沒有辦法使用 duplicity 進行 rsync 樣式同步?我想要的是 S3 中的文件結構與我在 bacula 上的完全相同。我通常會使用 rsync –delete 來執行此操作。

簡短的回答是……有點。

可以備份和檢索您的文件。但是,如果您從 Web 界面查看您的 Amazon 儲存桶,您將看到的只是備份存檔,而不是您可以下載的實際文件。這就是 Duplicity 和 Duply(簡單 Duplicity)的用武之地。

從伺服器執行一個簡單的命令,例如duply myfirstback list將為您提供所有備份文件的列表。

執行duply myfirstback fetch <file on S3> <destination>將讓您檢索單個文件或整個目錄結構。

執行duply myfirstbackup status將為您提供所有完整備份和增量備份的列表。

然後,您可以告訴 Duply 從哪個備份集檢索文件。例如:duply myfirstbackup fetch 'home/myhome/importantdirectory' ./home/myhome/restore 3D將從 3 天前的備份中恢復 /home/myhome/important 目錄,並在本地 /home/myhome/restore 中恢復它(參見“duplicity manpage”,TIME FORMATS 部分)

假設您將使用 Linux 作業系統,您可以使用帶有 Duplicity 的 Duply 來簡化伺服器數據到 S3 的加密和增量備份**。**

先決條件:python-lockfile、librsync、boto、duplicity、duply

為你控制 Duplicity 的 Duply 配置文件可以放在 /root/.duply/

然後只需創建備份配置,這可以通過發出命令來完成duply myfirstbackup create

然後您可以編輯 /root/.duply/myfirstbackup 中的兩個文件(conf、exlude)。這是兩者的簡化範例:

/root/.duply/myfirstbackup/conf

GPG_PW='my_super_secret_password_which_cannot_lose!'
TARGET='s3://s3.amazonaws.com/<bucketname>/my_backup_folder'
TARGET_USER='AWS_ACCESS_ID'
TARGET_PASS='AWS_ACCESS_SECRET'
SOURCE='/'
MAX_AGE=1M
TEMP_DIR=/tmp 

/root/.duply/myfirstbackup/exclude

+ /home/myhome
** 

以上將備份 /home/myhome 中的所有內容並保留一份副本 1 個月。有關如何設置配置的更多資訊,請參閱 duply 文件,例如 60 天增量。您可以設置每週一次的完整備份,每 2 小時進行一次增量備份。你對此有很大的控制權。

最後一步就是確保您設置一個 cronjob 以按照您想要的頻率執行它。每天、每小時、每周等。

複製: http ://www.duply.net

引用自:https://serverfault.com/questions/700934