我應該如何解釋雲託管提供商列出的磁碟 IOPS 與驅動器製造商列出的磁碟 IOPS?
當我查看來自各種雲託管提供商的磁碟(塊設備)儲存選項時,我通常會看到以下數字:
- Google云(區域 SSD):15.000 - 100.000 讀取 IOPS
- OVH 雲:(高速/SSD):高達 3.000 IOPS
- AWS : ( io1 / SSD) : 高達 64.000 IOPS
我對底層技術一無所知。
即使這些雲提供商會使用一些可用的較慢 SSD 選項(正常消費類 SATA SSD),其中一些磁碟的 IOPS 規格也適用於 90.0000 及以上範圍內的讀取和寫入(查看 860 EVO SSD 2.5)。NVMe SSD 將提供更好的吞吐量。即使這些雲提供商將這些 SSD 磁碟堆疊到某種儲存集群中,我仍然會驚訝地看到 IOPS 會從 90.000 下降到 3.000。
我覺得這些數字沒有可比性,即使使用了相同的指標 (IOPS)。
雲提供商列出的磁碟 IOPS 與磁碟製造商列出的磁碟 IOPS 應該如何理解?
Google 確實為本地SSD指定了 900.000 到 2.700.000 IOPS 。這表明他們的硬體完全有能力。“區域 SSD”的 IOPS 低得多,但它是特定區域中的所有伺服器都可以訪問的磁碟。這意味著它對執行程式碼的伺服器是遠端的,並且在伺服器和 SSD 之間有軟體來管理並發訪問。
是的,這會消耗大量 IOPS。這並不意外。只需看看本地 NVMe SSD (2.700.000 IOPS) 和非 NVMe (900.000 IOPS) 之間的巨大差異。僅僅通過在快閃記憶體晶片和 CPU 之間引入一條慢速匯流排,您已經損失了 66% 的原始性能。那可能是幾厘米長的 SATA 電纜和電纜兩側的 SATA 晶片。原始 SSD 速度如此之高,以至於任何成本都將是巨大的。
英特爾甚至認為 NVMe 對於他們的 Optane 儲存產品來說太慢了,於是選擇了 DIMM,就像 RAM 一樣。這就說得通了; 英特爾的 CPU每秒可以進行數十億次記憶體傳輸。(不是百萬,真的多了三個數量級)。然而,Optane 似乎在這方面失敗了:它的 IOPS 遠低於 100 萬,而且 DIMM 介面似乎是可笑的矯枉過正。但方向很明確;即使是 NVMe 也可能很快變得對於本地儲存來說太慢了。速度的秘訣是無需成本的直接訪問。您引用的數字只是顯示了當您增加成本時性能會下降的嚴重程度。