Ubuntu

跨伺服器同步源的最佳實踐 (Amazon EC2)

  • November 10, 2011

我正在從單個應用伺服器轉移到負載平衡配置。

在單伺服器配置中,我每隔幾分鐘通過 S3 cmd sync s3 同步源,並在 hostup(Scalr 事件)上從 S3 同步源。這確保伺服器將執行更新的源。

當應用伺服器的數量是動態的時,最佳實踐是什麼?

假設我有 2 台伺服器,並且伺服器 A 獲得了更新的源。如果同步腳本首先在 B 上執行,伺服器 A 將從 B 獲取舊文件,而不是相反。

在這種情況下,最佳做法是什麼?

以下是用於集中儲存的主要協議:

  • SSHFS - 通過 SSH 傳輸所有內容,因此它是安全的,可以在 Internet 上使用而無需擔心。如果需要,SSH 支持透明壓縮。但是,SSHFS 可能很難開始工作。
  • NFS - 天生不安全,使用 IP 地址來區分權限,但通常很容易上手。

就個人而言,我會嘗試使用 SSHFS,如果它不起作用,我會回退到 NFS。

我不確定您所說的來源是什麼意思,但我假設您的意思是您的伺服器正在服務的 Web 應用程式碼。

對此的最佳解決方案是使用共享網路文件系統來保持源動態更新。最流行的兩個是NFSGlusterFS

引用自:https://serverfault.com/questions/326394