Raid

將 HP gen 5 SAS raid 籠連接到第三方(3ware、LSI)控制器?

  • January 2, 2015

我有一個 ML350 G5,我正在考慮重新利用它來省錢。我正在尋找安裝 FreeNAS,但它(ZFS)與我所讀到的作為主機板一部分的 HP e200i 卡不兼容。我想以便宜的價格購買一個優質的二手 pcie x4 / x8 RAID 卡並將其直接連接到背板,這樣我就可以繼續為我的驅動器使用 LFF 籠。

背板似乎使用 2ea 4 通道 SAS 電纜,兩端帶有 sff-8484 連接器 - 我可以斷開一根並使用分支電纜,重新路由到我的附加 RAID 卡嗎?在我看來,這將允許我將籠子電氣分成兩半——使用 e200i 的 3 個驅動器,使用新卡的 3 個驅動器。

我不知道有多少邏輯是 RAID 背板或 HP 背​​板的一部分。我不知道它是否是一個“愚蠢”的組件,它只建立從 HD 到 RAID 控制器的電氣連接,或者它是否“智能”,執行基本上使其專有兼容的邏輯功能。

想法?謝謝!

如果我正在處理那個型號/老式的伺服器(大約 2005-2008 年),我可能會利用現有的設置……幾點:

  • G5 ML350 中的 6 磁碟 3.5" 背板是一個愚蠢的組件。沒有內置 RAID 邏輯或 SAS 擴展。
  • 只要使用正確的佈線,您就可以將此背板和籠子連接到*任何RAID 控制器或 SAS HBA。*如果您使用較新的控制器,則背板側為 SFF-8484,控制器側可能為 SFF-8087。
  • 這是舊硬體,因此請了解您的 PCIe 插槽、SAS 頻寬(3.0Gbps)的限制
  • 如果您使用 SATA 驅動器,如果您使用周期正確的 HP Smart Array 控制器(E200i、P400、P800),則每個磁碟的連結速度上限為 1.5Gbps。

我會怎麼做?

  • 我會放棄 FreeNAS。這不是一個很好的解決方案,而且您會失去一些 HP ProLiant 平台監控功能。FreeNAS 下的磁碟 ZFS 格式也有點古怪…… FreeNAS 一直是一些WTF ServerFault 問題的素材。
  • 相反,ZFS-on-Linux 或利用它的設備包將是更好的選擇。查看免費的QuantaStorZetaVault社區版。

最後,對於這種規模的硬體,只使用現有的 HP Smart Array E200i 控制器是有意義的。

  • 如果您採用以 ZFS 為中心的作業系統和支持 JBOD 的控制器或 HBA 的方法,則必須為作業系統以及數據分配磁碟。這是對磁碟空間的潛在浪費。如果您使用磁碟的分區或切片來解決此問題,您的 ZFS 配置將變得極其複雜和令人擔憂。
  • E200i 是一款功能強大的控制器,您將受益於寫入記憶體(如果 RAID 電池存在且健康)。
  • 如果您真的想使用 ZFS,您可以在硬體 RAID 控制器上執行此操作。我一直這樣做是為了提供一些 ZFS 功能(快照、壓縮等),同時仍然具有硬體陣列監控的簡便性和靈活性。
  • HP Smart Array 控制器可以配置為從一組磁碟(“陣列”)中提供多個邏輯驅動器(塊設備)。在下面的範例中,我在 ML350 G5 伺服器中配置了 E200i,該伺服器具有 4 個 500GB SATA 磁碟,以提供 72GB 作業系統驅動器和 240GB 和 200GB 驅動器以用作單獨的 ZFS zpool。
Smart Array E200i in Slot 0 (Embedded)    (sn: QT8CMP3716     )

Internal Drive Cage at Port 1I, Box 1, OK

Internal Drive Cage at Port 2I, Box 1, OK
array A (SATA, Unused Space: 0  MB)


 logicaldrive 1 (72.0 GB, RAID 1+0, OK)
 logicaldrive 2 (240.0 GB, RAID 1+0, OK)
 logicaldrive 3 (200.0 GB, RAID 1+0, OK)

 physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 500 GB, OK)
 physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK)
 physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 500 GB, OK)
 physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SATA, 500 GB, OK)

zpool 狀態輸出

 pool: vol1
state: ONLINE
 scan: scrub repaired 0 in 1h33m with 0 errors on Thu Jan  1 09:19:21 2015
config:

   NAME                                       STATE     READ WRITE CKSUM
   vol1                                       ONLINE       0     0     0
     cciss-3600508b1001037313620202020200007  ONLINE       0     0     0

errors: No known data errors

 pool: vol2
state: ONLINE
 scan: scrub repaired 0 in 2h3m with 0 errors on Thu Jan  1 09:49:35 2015
config:

   NAME        STATE     READ WRITE CKSUM
   vol2        ONLINE       0     0     0
     cciss-4542300b6103731362020202067830007      ONLINE       0     0     0

引用自:https://serverfault.com/questions/655803