Raid
將 HP gen 5 SAS raid 籠連接到第三方(3ware、LSI)控制器?
我有一個 ML350 G5,我正在考慮重新利用它來省錢。我正在尋找安裝 FreeNAS,但它(ZFS)與我所讀到的作為主機板一部分的 HP e200i 卡不兼容。我想以便宜的價格購買一個優質的二手 pcie x4 / x8 RAID 卡並將其直接連接到背板,這樣我就可以繼續為我的驅動器使用 LFF 籠。
背板似乎使用 2ea 4 通道 SAS 電纜,兩端帶有 sff-8484 連接器 - 我可以斷開一根並使用分支電纜,重新路由到我的附加 RAID 卡嗎?在我看來,這將允許我將籠子電氣分成兩半——使用 e200i 的 3 個驅動器,使用新卡的 3 個驅動器。
我不知道有多少邏輯是 RAID 背板或 HP 背板的一部分。我不知道它是否是一個“愚蠢”的組件,它只建立從 HD 到 RAID 控制器的電氣連接,或者它是否“智能”,執行基本上使其專有兼容的邏輯功能。
想法?謝謝!
如果我正在處理那個型號/老式的伺服器(大約 2005-2008 年),我可能會利用現有的設置……幾點:
- G5 ML350 中的 6 磁碟 3.5" 背板是一個愚蠢的組件。沒有內置 RAID 邏輯或 SAS 擴展。
- 只要使用正確的佈線,您就可以將此背板和籠子連接到*任何RAID 控制器或 SAS HBA。*如果您使用較新的控制器,則背板側為 SFF-8484,控制器側可能為 SFF-8087。
- 這是舊硬體,因此請了解您的 PCIe 插槽、SAS 頻寬(3.0Gbps)的限制
- 如果您使用 SATA 驅動器,如果您使用周期正確的 HP Smart Array 控制器(E200i、P400、P800),則每個磁碟的連結速度上限為 1.5Gbps。
我會怎麼做?
- 我會放棄 FreeNAS。這不是一個很好的解決方案,而且您會失去一些 HP ProLiant 平台監控功能。FreeNAS 下的磁碟 ZFS 格式也有點古怪…… FreeNAS 一直是一些WTF ServerFault 問題的素材。
- 相反,ZFS-on-Linux 或利用它的設備包將是更好的選擇。查看免費的QuantaStor或ZetaVault社區版。
最後,對於這種規模的硬體,只使用現有的 HP Smart Array E200i 控制器是有意義的。
- 如果您採用以 ZFS 為中心的作業系統和支持 JBOD 的控制器或 HBA 的方法,則必須為作業系統以及數據分配磁碟。這是對磁碟空間的潛在浪費。如果您使用磁碟的分區或切片來解決此問題,您的 ZFS 配置將變得極其複雜和令人擔憂。
- E200i 是一款功能強大的控制器,您將受益於寫入記憶體(如果 RAID 電池存在且健康)。
- 如果您真的想使用 ZFS,您可以在硬體 RAID 控制器上執行此操作。我一直這樣做是為了提供一些 ZFS 功能(快照、壓縮等),同時仍然具有硬體陣列監控的簡便性和靈活性。
- HP Smart Array 控制器可以配置為從一組磁碟(“陣列”)中提供多個邏輯驅動器(塊設備)。在下面的範例中,我在 ML350 G5 伺服器中配置了 E200i,該伺服器具有 4 個 500GB SATA 磁碟,以提供 72GB 作業系統驅動器和 240GB 和 200GB 驅動器以用作單獨的 ZFS zpool。
Smart Array E200i in Slot 0 (Embedded) (sn: QT8CMP3716 ) Internal Drive Cage at Port 1I, Box 1, OK Internal Drive Cage at Port 2I, Box 1, OK array A (SATA, Unused Space: 0 MB) logicaldrive 1 (72.0 GB, RAID 1+0, OK) logicaldrive 2 (240.0 GB, RAID 1+0, OK) logicaldrive 3 (200.0 GB, RAID 1+0, OK) physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 500 GB, OK) physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 500 GB, OK) physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SATA, 500 GB, OK)
zpool 狀態輸出
pool: vol1 state: ONLINE scan: scrub repaired 0 in 1h33m with 0 errors on Thu Jan 1 09:19:21 2015 config: NAME STATE READ WRITE CKSUM vol1 ONLINE 0 0 0 cciss-3600508b1001037313620202020200007 ONLINE 0 0 0 errors: No known data errors pool: vol2 state: ONLINE scan: scrub repaired 0 in 2h3m with 0 errors on Thu Jan 1 09:49:35 2015 config: NAME STATE READ WRITE CKSUM vol2 ONLINE 0 0 0 cciss-4542300b6103731362020202067830007 ONLINE 0 0 0