Networking

SAN (Dell MD3200) 管理埠是否應與故障轉移集群專用子網/VLAN 位於同一子網/VLAN?

  • February 29, 2012

所以,我在這裡有點困惑。我有一個Dell MD3200帶有雙控制器的 SAN。每個控制器都有一個連接到交換機的乙太網管理埠。兩個控制器一起連接到獨立的交換機以實現冗餘。

我正在建構我的故障轉移集群,並被告知我應該讓 SAN 管理埠在同一子網上執行,該子網將與 VLAN 隔離。如果我只是把它留在那裡,那是有道理的,但是,如果我想通過不在子網/VLAN 上的伺服器上的網路在帶外管理 SAN,我將無法做到。

所以,問題是,如果我有一個10.0.1.X用於我的伺服器的10.0.2.X子網和一個用於故障轉移集群的子網,我是讓 SAN 成為10.0.1.X或的一部分10.0.2.X嗎?我個人認為我應該把它留著10.0.1.X,但我想我會問以防萬一。

更新

只是為了給您更多資訊,有問題的伺服器是Dell R710帶有 x8 1GbE 埠的 s (x2)。開關是Dell 6224s (x2)。我計劃在具有 3 個團隊連接的伺服器上。“公共”團隊中有 2 個埠,“私有”團隊中有 2 個埠(用於集群),“虛擬機”團隊有 4 個埠。

SAN一個MD3200,而不是MD3200i. 它通過冗餘 HBA 電纜連接到具有 SAS 的伺服器。

該群集將成為 Hyper-V 的 Windows Server 2008 R2 故障轉移群集。

MD3200通過SAS連接伺服器;所以我想你的意思是MD3200i。為管理、iSCSI 和客戶端流量分離 vLAN 是“正常的”。你沒有提到你正在執行什麼樣的集群軟體,但對於大多數集群/心跳流量來說,擁有自己的 vLAN 是很常見的。

根據您的伺服器和硬體,它們中的每一個都可能有自己的物理 NIC,也可能是共享的。對於 1GbE,至少有 4 個 NIC 埠也是正常的;2 個 10GbE/FC/IB/NCA 埠和 2 個 1GbE 埠。擁有允許所有這些 vLAN 路由(有選擇地和適用時)的訪問控制的 L4 交換機或路由器也是正常的。

打破它:

  • 您的伺服器應該至少有 4 個網路埠。

    • 根據您的設置,您可能需要 6 個甚至 8 個;這真的取決於。
  • 您應該有 vLAN 用於:

    • 管理(ESX 或 Hyper-V 管理程序;iLO/DRAC/iLOM/等;SAN 管理)
    • SAN 流量(無論是什麼:iSCSI、FC、IB、SAS;應該是分開的)
    • 客戶流量(您的正常流量,有時您會想要多個,只要沒有任何額外的複雜性就可以了)
    • 集群/心跳(可選,取決於您使用的軟體)。我執行 Hyper-V 集群並在管理網路上有心跳,它對輕微的延遲不是很敏感;一些集群軟體對延遲非常敏感,需要獨立執行。
  • 每個 vLAN 都應該有自己的子網。我強烈建議使用大於 /24 的子網將它們分開,以便以後輕鬆擴展它們(我不建議使用小於 /20 的子網;即 10.0.0.0/20、10.0.16.0/20、10.0.32.0 /20 等)。子網之間應該有某種形式的路由。高端交換機有這個功能,你的防火牆也可以。如果您缺少帶有pfSense的盒子或虛擬機,效果很好。


其他想法:網卡晶片真的很重要。確保您的伺服器具有良好的性能,並通過 Google 查找特定晶片的集群或 SAN 問題。例如,我執行 Broadcom BCM5709 晶片(我所有的伺服器都使用完全相同的晶片)。這些晶片與已解決的過去韌體存在問題。英特爾晶片往往非常好。無論如何,請檢查並確保執行最新的韌體、驅動程序和管理軟體。

引用自:https://serverfault.com/questions/364647