Vmware-Server
1GB 乙太網上 iSCSI 和 NFS 的“好”速度是多少?
我有一個共享兩個 ZFS 文件系統的 OpenSolaris 機器。一種是 NFS 連接到執行 VMware 伺服器的 CentOS 機器(磁碟映像儲存在 ZFS 中)。另一個是與 Windows 2008 伺服器的 iSCSI 連接,在 ZFS 之上具有 NTFS 格式。兩個連接都直接通過 gig-E(無開關)。
我正在執行 munin 來監控這些盒子,但我不確定我應該期待什麼樣的數字。任何人都可以給我一些基線數字來比較或就從哪裡開始調整提出任何建議嗎?
這是我看到的 NFS 統計資訊,一旦我在 solaris 機器上修復了 munin,我將發布 iSCSI:P
我們已將 Sun X4100 通過綁定的 GigE 和 iSCSI 寫入 Sun X4500 的速度提高到 280MB/s。
可以做很多事情來調整 Solaris 上的 TCP 堆棧以幫助解決問題,這是我的常用調整配置。(取自 Sun 白皮書的一些集合):
$ cat /etc/rc3.d/S99ndd #!/bin/bash NDD=/usr/sbin/ndd $NDD -set /dev/tcp tcp_xmit_hiwat 1048576 $NDD -set /dev/tcp tcp_recv_hiwat 8388608 $NDD -set /dev/tcp tcp_max_buf 8388608 $NDD -set /dev/udp udp_xmit_hiwat 1048576 $NDD -set /dev/udp udp_recv_hiwat 8388608 $NDD -set /dev/udp udp_max_buf 8388608 $NDD -set /dev/tcp tcp_conn_req_max_q 65536 $NDD -set /dev/tcp tcp_conn_req_max_q0 65536 $NDD -set /dev/tcp tcp_fin_wait_2_flush_interval 67500
此外,在您的 OpenSolaris 機器上值得研究的是更改 fsflush 間隔、中斷調整“魔術”和禁用軟環。將以下內容附加到 /etc/system(需要重新啟動):
* "fsflush" tuning set tune_t_fsflushr = 5 set autoup = 300 * Disable the Automatic Interrupt Adjustment set dld:dld_opt = 2 * Disable "soft rings" set ip:ip_squeue_fanout = 0 set ip:ip_soft_rings_cnt = 0
值得一提的是,我在 Solaris 10(而不是 OpenSolaris)上執行此操作,但我認為這些可調參數應該同樣適用於您。
我是 Filebench 的忠實粉絲,因為我喜歡玩調整選項和進行吞吐量測試。
(最近更名的)OpenSolaris 2009.06 版本在 iSCSI 和 ZFS 的世界中看起來非常令人興奮。
希望這會有所幫助!