使用兩個 Intel NIC 10G 埠時傳輸速率降低
我在執行 RHEL6 的伺服器上使用 Intel 82599EB 10G NIC。我執行了一個以高速率生成數據包的程序。NIC 之前安裝在另一台 PC 上,我能夠同時在每個埠上生成 8-9Gbps 的流量。在這台伺服器上,只有在使用一個埠時,我才能以 8-9Gbps 的速度生成。如果我要同時在兩個埠上生成,那麼我的總傳輸速率會下降到大約 12Gbps(每個埠約為 6Gbps)。
我的相關“lspci -vvv”輸出顯示如下:
0b:00.0 Ethernet controller: ... Capabilities: [a0] Express (v2) Endpoint, MSI 00 LnkCap: Port #1, Speed 5GT/s, Width x8 LnkSta: Speed 5GT/s, Width x4 LnkCtl2: Target Link Speed: 5GT/s 0b:00.1 Ethernet controller: ... Capabilities: [a0] Express (v2) Endpoint, MSI 00 LnkCap: Port #1, Speed 5GT/s, Width x8 LnkSta: Speed 5GT/s, Width x4 LnkCtl2: Target Link Speed: 2.5GT/s
兩個埠的 LnkSta 中的“x4”是否限制了我的傳輸速率?一個埠上的“目標鏈路速度:5GT/s”和另一個埠上的“目標鏈路速度:2.5GT/s”是什麼意思?這是否也導致利率下降?
另外,我看到幾個 PCIE 插槽比我的 NIC 的 PCIE 連接器長。我可以將網卡安裝在這些較長的插槽上嗎?
另外,我看到幾個 PCIE 插槽比我的 NIC 的 PCIE 連接器長。我可以將網卡安裝在這些較長的插槽上嗎?
大部分是的。如:理論上是的,但在實踐中不確定——糟糕的 BIOS 可能會破壞這一點。例如,過去帶有 RAI 卡的圖形埠(一個 ncice pCIEx16)可能會由於 BIOS 處理不當而導致啟動失敗……雖然是幾年前的事了,但這些天不應該發生這樣的問題。我經常這樣做,從顯卡插槽執行 RAID 控制器,並將板載顯卡用於伺服器場景。
嘗試看看 waht hapens 是這裡唯一的解決方案 - PCIe 兼容,因為 CAN 將較小的連接器放入標準的較大插槽中。較大的連接器甚至不能連接所有引腳 - 您可以在 PCIex16 連接器上使用 PCIex1 連結,顯然所有卡都適合但只能與 PCIEx1 一起使用…我這裡有一些轉換器可以在 PCIEx1 插槽上執行顯卡以進行數字運算.
兩個埠的 LnkSta 中的“x4”是否限制了我的傳輸速率?
那麼,埠的物理限制顯然限制了線路的速度,或者?是的,這是一個物理限制——你無法程式。
一個埠上的“目標鏈路速度:5GT/s”和另一個埠上的“目標鏈路速度:2.5GT/s”是什麼意思?這是否也導致利率下降?
其他人將不得不回答什麼,但我在Google找到了這個:
http://www.xilinx.com/support/answers/37497.htm
如果這是我讀到的,那就是配置的上限 - 所以是的,這應該是原因,但問題是為什麼,所以它可能是其他問題的症狀。