Linux

LVM-on-RAID vs RAID10 vs RAID6

  • September 1, 2011

本著LVM mirroring VS RAID1這個問題的精神,我想我會更進一步。

假設我有 4 個相同的硬碟驅動器(例如 1TB),我希望在 RAID 設置中用於備份/媒體伺服器。LVM over top 似乎是目前調整大小的最佳實踐,但是 RAID 佈局呢?我的選擇似乎是:

  • 2 個 1TB RAID1 集,帶 LVM 連接
  • 2 個 1TB RAID1 集,帶 LVM 條帶化
  • 1x 2TB RAID10(條帶化 2x 1TB)設置,頂部有 LVM
  • 1x 2TB RAID6(帶 2x 1TB 奇偶校驗的條帶化 2x1TB),頂部有 LVM

LVM 上的 RAID 聽起來太瘋狂了,不值得研究,但如果有人能提出使用它的好案例,我會很感興趣。

這些中的每一個在以下場景中的表現如何

  • I/O 負載將是低但恆定(例如影片流)和高但突發(例如備份系統)的組合
  • 驅動器很可能會意外當機
  • 我想一次升級(增加容量)驅動器 1 或 2(不再相關)
  • 在未來的某個時候,我可能想在 RAID1 中將另外 2 個 HDD 添加到 LVM

您對這些 RAID 配置有什麼建議/經驗?

我不會混合md(軟體 RAID)和md(LVM)RAID 功能。本著 KISS 的精神,我會選擇 puremd並在頂部使用 LVM 來進行快照/調整大小。

使用 4 個磁碟進行 RAID6 是一個壞主意 (TM)。它為您提供與 RAID 10 一樣多的空間,但性能要差得多(您必須計算兩個奇偶校驗並面臨小於條帶大小的寫入的讀取-修改-寫入懲罰)。

RAID 6 以較高的成本為您提供稍微更好的彈性(任何 2 個磁碟都可能發生故障,而在 RAID 10 中,鏡像對中的一個磁碟可能會發生故障)。不值得。

RAID 10 在此設置中為您提供最佳性能。

  • 帶有 LVM 連接的 2 個 1TB RAID1 集——並發 I/O 性能取決於您訪問的是相同的磁碟對還是不同的磁碟對。由 RAID 10 解決,它將您的 I/O 分佈在所有磁碟上。
  • 帶有 LVM 條帶化的 2x 1TB RAID1 集——應該提供與mdRAID 10 相似的性能,但您的設置更複雜。我喜歡簡單。
  • 1x 2TB RAID6(條帶化 2x1TB 和 2x 1TB 奇偶校驗),頂部有 LVM——寫入性能較差,驅動器失去時性能較差。

性能特徵 我將假設 RAID 10,因為在我看來,它在您的方案中具有所有優點並且沒有缺點。您將受到相當於一對 HDD 的性能的限制。換句話說,您將能夠以大約 2 倍於單個 HDD 的速度提供/寫入數據。對於流媒體,您應該能夠毫不費力地(讀取或寫入)使 1Gbps 鏈路飽和。對於突發數據,您會遇到大約 150 IOps(假設 7.2krpm SATA 驅動器)。RAID 10 將保證所有 I/O 的負載分佈在所有驅動器上(除非您不幸讓應用程序訪問數據的步幅與您的 RAID 塊大小相匹配),並且 RAID 10“遠”佈局應該為您提供類似的性能無論您訪問的是文件系統的哪個區域。

失去的驅動器意味著讀取訪問時間的邊際損失(您失去了受影響鏡像對的“遠”佈局優勢)。

如果您使用另一對鏡像驅動器擴展儲存,md則將無法重塑數據以將其重新條帶化到新空間。實際上,您擁有 RAID10 + RAID1 設置,除非您備份、重新創建陣列並恢復。

引用自:https://serverfault.com/questions/306686