Networking
鏈路聚合 (LACP/802.3ad) 的吞吐量增加多少?
我發現我的集群內的數據傳輸將受到網路互連的瓶頸(我正在用順序工作負載使雙 SAS 連接到我的儲存飽和),並且我在 10 GbE 或 40/56 Gb Infiniband 之間猶豫不決以減輕問題。
我傾向於使用雙埠 10 GbE NIC 和鏈路聚合來增加伺服器之間的吞吐量。但是,我讀到吞吐量不會隨連結數量線性增加。我應該期望什麼樣的吞吐量?如果它取決於我的工作集,我該如何估計吞吐量?
綁定 1GBE 鏈路幾乎是線性的。不過,我還沒有嘗試過使用 10GBe 連結,我懷疑它不是線性的。原因是記憶體和CPU成為瓶頸。我已經在 FDR infiniband 中看到了這一點,我不懷疑乙太網也會發生同樣的情況,儘管有解除安裝機制。
這就是發明 RDMA 的原因。在 Infiniband 上,它僅稱為 RDMA。在乙太網上,他們將其稱為融合乙太網上的 RoCE 或 RDMA。它旨在提供記憶體到記憶體的傳輸,並繞過 CPU,除了設置傳輸過程。iSCSI iSER 協議使用 RDMA。然而,又遇到了瓶頸。要執行 RDMA,您需要鎖定記憶體區域以防止在此過程中將它們分頁到磁碟。這需要時間並且通常是瓶頸。在 FDR 上,我們獲得了大約 6GBytes/秒的吞吐量,但仍然低於 56GBit/s - 成本。
通常,人們希望堅持使用一種已知的技術,例如乙太網。但是對於盡可能高的性能,infiniband 非常棒。兩者都相當昂貴,但乙太網可能在成本上具有優勢。