Mysql

Rackspace 雲伺服器備份選項

  • June 29, 2011

我最近註冊了 Rackspace 來託管一些數據庫伺服器。我已經設置了兩台 MySQL 伺服器,並且有一種創建備份的方法(使用 Percona Xtrabackup 和 innobackupex 工具)。我一直在嘗試使用 duplicity 將這些備份複製到 S3 和 CloudFiles 儲存中,並且它需要forreverr!我預計 S3 備份不會很快,但 CloudFiles 備份需要 15 個小時才能備份 9GB。這太慢了,對我來說是不可接受的。

我查看了 duplicity 原始碼,預設情況下它使用 Rackspace Servicenet 傳輸到雲文件。然後,我查看了 duplicity 用於 CF 後端的 lib 的 cloudfiles 原始碼,發現有一個環境選項可用於使用 Servicenet ( RACKSPACE_SERVICENET)。只要將其設置為雲文件庫應該通過 Rackspace 服務網路連接到雲文件,這應該可以實現快速傳輸。它不是。

我不確定速度限制是因為 CloudFiles 的某些限制,還是 cloudfiles python 庫實際上沒有通過 RackSpace 服務網路連接。

對於我應該/可以如何將這些備份從伺服器上轉移到第 3 方或遠端備份服務上,你們中是否有人有任何其他建議?

我們使用 Rackspace 伺服器備份(又名 JungleDisk 伺服器備份),它與 Duplicity 一樣進行本地重複數據刪除和壓縮,然後通過 HTTP 將“塊”上傳到雲提供商。我們看到了一些性能問題,根本原因是我們的雲文件與雲伺服器的配置點不同。我們的雲伺服器是在 DFW 數據中心創建的,但 JungleDisk 的所有云文件儲存桶都在 ORD 數據中心。

Rackspace 目前沒有讓人們選擇他們將使用哪個數據中心,因為 DFW 設施已接近容量。因此,“較新”帳戶的所有內容都在 ORD 中提供。因此,您必須打開支持票證才能更改您的配置點。

此外,您還不能在 Rackspace 數據中心之間使用 ServiceNet。

也就是說,我們確實在備份期間看到了 40+ Mbps,甚至使用 Rackspace Cloud Backup 跨越 Rackspace 數據中心,所以我懷疑您有某種形式的重複性配置問題,或者您在備份期間受磁碟或 CPU 限制。您是否嘗試過從外部雲文件執行備份到同一目標?大文件的簡單 HTTP PUT 如何執行(即排除重複性測試)?

引用自:https://serverfault.com/questions/278258