Linux
你如何備份你的網站?
你如何備份你的網站?當您有一個包含數千個文件的大型站點(20GB+)時,我特別感興趣?
有什麼比平常更聰明的嗎
tar -zcvf backup2010.tar.gz ./public_html/
回答上述問題後,您如何保持一致的備份程序?
謝謝大家的幫助
rsync是一種僅複製增量(文件更改)的質量工具:
rsync --partial --progress --rsh=ssh ./public_html/ user@remotehost.com:/permitted/path
這將備份盡可能少的數據以同步您的兩個目錄。
然後為了創建備份,我建議在遠端電腦上執行問題中的 tar 命令,這樣您每天仍然有一個存檔,但您的頻寬使用率是最低的。您可以在 rsync 備份中包含 SQL 數據庫轉儲(不是原始表!),但要確保它們不會出現在面向公眾的目錄中!
要保持一致的備份過程,請 cron 執行這些任務。
並且不要忘記編寫腳本並測試您的恢復過程!糟糕的備份毫無價值。