Linux

非常大的重複性記憶體

  • July 13, 2018

我目前正在使用 duplicity 腳本將我的 110G/2T CentOS 伺服器備份到 2T sftp 伺服器。

4天過去了,duplicity只備份了90G。這不是問題。主要問題是;我在“/user/.cache/duplicity”處生成了近 600G 的重複性記憶體。這個尺寸不正常,我該怎麼辦?完成任務後,重複性會縮小或刪除這些記憶體文件和文件夾嗎?重複性是否也會備份它的記憶體(我沒有排除 /user 文件夾)?

附加資訊:我正在使用 Hetzner 伺服器,這是我正在使用的備份腳本: https ://wiki.hetzner.de/index.php/Duplicity_Script/en

此外,我只是從根目錄中排除了目錄 proc、sys 和 dev(並從根目錄開始備份所有其他內容,因為我想要完整的伺服器備份)。

根據郵件列表

你將不得不手動排除它..

它保存您的備份鏈索引文件(備份儲存庫的目錄)。在本地記憶體它們可以加速狀態和增量備份等選項。這些操作需要知道已經備份的內容。如果它們被記憶體,則不需要一次又一次地傳輸和解密。

..埃德

其餘的似乎是一個長期存在的錯誤

在 Debian 錯誤跟踪器上,他們建議

duplicity cleanup --extra-clean --force ....

警告:建議的--extra-clean選項很危險,可能會咬到你。它使備份無法通過通常的方式恢復

引用自:https://serverfault.com/questions/768573