Nfs
Nexenta/OpenSolaris 文件管理器核心恐慌/崩潰
我有一個執行NexentaStor Enterprise的x4540 Sun 儲存伺服器。它為多個 VMWare vSphere 主機提供超過 10GbE CX4 的 NFS。有 30 台虛擬機正在執行。
在過去的幾周里,我遇到了間隔 10 到 14 天的隨機崩潰。該系統用於打開 OpenSolaris,並且在這種安排下是穩定的。崩潰會觸發硬體上的自動系統恢復功能,從而強制進行硬系統重置。
這是mdb 調試器的輸出:
panic[cpu5]/thread=ffffff003fefbc60: Deadlock: cycle in blocking chain ffffff003fefb570 genunix:turnstile_block+795 () ffffff003fefb5d0 unix:mutex_vector_enter+261 () ffffff003fefb630 zfs:dbuf_find+5d () ffffff003fefb6c0 zfs:dbuf_hold_impl+59 () ffffff003fefb700 zfs:dbuf_hold+2e () ffffff003fefb780 zfs:dmu_buf_hold+8e () ffffff003fefb820 zfs:zap_lockdir+6d () ffffff003fefb8b0 zfs:zap_update+5b () ffffff003fefb930 zfs:zap_increment+9b () ffffff003fefb9b0 zfs:zap_increment_int+68 () ffffff003fefba10 zfs:do_userquota_update+8a () ffffff003fefba70 zfs:dmu_objset_do_userquota_updates+de () ffffff003fefbaf0 zfs:dsl_pool_sync+112 () ffffff003fefbba0 zfs:spa_sync+37b () ffffff003fefbc40 zfs:txg_sync_thread+247 () ffffff003fefbc50 unix:thread_start+8 ()
任何想法這意味著什麼?
附加資訊。我不相信我在文件系統或每個使用者級別啟用了任何配額。
========== Volumes and Folders =========== NAME USED AVAIL REFER MOUNTED QUOTA DEDUP COMPRESS syspool/rootfs-nmu-000 9.84G 195G 3.84G yes none off off syspool/rootfs-nmu-001 79.5K 195G 1.16G no none off off syspool/rootfs-nmu-002 89.5K 195G 2.05G no none off off syspool/rootfs-nmu-003 82.5K 195G 6.30G no none off off vol1/AueXXXch 33.9G 1.28T 23.3G yes none on on vol1/CXXXG 8.72G 1.28T 6.22G yes none on on vol1/CoaXXXuce 97.8G 1.28T 61.4G yes none on on vol1/HXXXco 58.1G 1.28T 41.1G yes none off on vol1/HXXXen 203G 1.28T 90.0G yes none off on vol1/HXXXny 9.65G 1.28T 8.48G yes none off on vol1/InXXXuit 2.03G 1.28T 2.03G yes none off on vol1/MiXXXary 196G 1.28T 105G yes none off on vol1/RoXXXer 45.5G 1.28T 28.7G yes none off on vol1/TudXXXanch 6.06G 1.28T 4.54G yes none off on vol1/aXXXa 774M 1.28T 774M yes none off off vol1/ewXXXte 46.4G 1.28T 46.4G yes none on on vol1/foXXXce 774M 1.28T 774M yes none off off vol1/saXXXe 69K 1.28T 31K yes none off on vol1/vXXXre 72.4G 1.28T 72.4G yes none off on vol1/xXXXp 29.0G 1.28T 18.6G yes none off on vol1/xXXXt 100G 1.28T 52.4G yes none off on vol2/AuXXXch 22.9G 2.31T 22.9G yes none on on vol2/FamXXXree 310G 2.31T 230G yes none off on vol2/LAXXXty 605G 2.31T 298G yes none off on vol2/McXXXney 147G 2.31T 40.3G yes none off on vol2/MoXXXri 96.8G 2.31T 32.6G yes none off on vol2/TXXXta 676G 2.31T 279G yes none off on vol2/VXXXey 210G 2.31T 139G yes none off on vol2/vmXXXe2 2.69G 2.31T 2.69G yes none off on
我對這個設置一無所知,但是,
ffffff003fefb820 zfs:zap_lockdir+6d () 似乎表明工作執行緒正在鎖定目錄,然後 mutex_vector_enter 也嘗試鎖定它。
這一切似乎都源於從更新配額開始的情況。如果可能的話,您可能需要考慮在不必要的情況下關閉配額。
它只是一種解決方法而不是修復,我不知道它是否會按預期工作!但可能值得一試。
堆棧跟踪引用了我們的客戶通常不使用的“userquota”。請注意,它與您也可以設置的文件系統配額是分開的。如果可以,我鼓勵您關閉使用者配額,特別是因為您認為它們是不必要的,但如果您有支持契約,我也鼓勵您送出支持票。這可以從 Web GUI 發送,然後會在票證中包含來自您的系統的診斷資訊。