Linux
非常大的重複性記憶體
我目前正在使用 duplicity 腳本將我的 110G/2T CentOS 伺服器備份到 2T sftp 伺服器。
4天過去了,duplicity只備份了90G。這不是問題。主要問題是;我在“/user/.cache/duplicity”處生成了近 600G 的重複性記憶體。這個尺寸不正常,我該怎麼辦?完成任務後,重複性會縮小或刪除這些記憶體文件和文件夾嗎?重複性是否也會備份它的記憶體(我沒有排除 /user 文件夾)?
附加資訊:我正在使用 Hetzner 伺服器,這是我正在使用的備份腳本: https ://wiki.hetzner.de/index.php/Duplicity_Script/en
此外,我只是從根目錄中排除了目錄 proc、sys 和 dev(並從根目錄開始備份所有其他內容,因為我想要完整的伺服器備份)。
根據郵件列表
你將不得不手動排除它..
它保存您的備份鏈索引文件(備份儲存庫的目錄)。在本地記憶體它們可以加速狀態和增量備份等選項。這些操作需要知道已經備份的內容。如果它們被記憶體,則不需要一次又一次地傳輸和解密。
..埃德
其餘的似乎是一個長期存在的錯誤。
在 Debian 錯誤跟踪器上,他們建議
duplicity cleanup --extra-clean --force ....
警告:建議的
--extra-clean
選項很危險,可能會咬到你。它使備份無法通過通常的方式恢復。