Solaris 11.1 ZFS Root rpool 顯示一個磁碟不可用且線上,如何分離
這是一個 x86 Solaris 11.1 安裝。我有兩個 zfs 池 R500 和 rpool
我想將 R500 從 500GB 磁碟升級到 2TB,然後使用 500GB 磁碟作為根 rpool 磁碟來替換 320GB 磁碟。
在對我們的 SMI 標籤和分區進行排序後,我分離了一個 rpool 磁碟並附加了一個 500GB 的磁碟,因為它認為它正在 R500 池上使用。它重新同步正常,但不會啟動它掛在 BIOS 中的驗證 SMI 池。Grub 從剩餘的 320GB 磁碟上傳入,但掛在 SunOS 橫幅上,認為 500GB 上缺少引導塊,但 320GB 上有一些損壞。所以我刪除了兩個磁碟並插入了啟動正常的分離(和未更改的 320GB 磁碟)。我再次附加了 500GB 磁碟,該磁碟正在重新同步,但位於“zfs status rpool”上
它顯示 320GB 磁碟既不可用又線上,我猜它是指從同一埠刪除的舊 320GB。但是我現在如何分離這個不可用的磁碟呢?
它在重新啟動後自行解決,在 rpool 重新同步並安裝引導塊之前,我無法在幾個小時內這樣做。
root@opensolaris:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT R500 464G 402G 61.8G 86% 1.00x DEGRADED - rpool 298G 213G 85.2G 71% 1.00x DEGRADED - root@opensolaris:~# zpool status rpool pool: rpool state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function in a degraded state. action: Wait for the resilver to complete. Run 'zpool status -v' to see device specific details. scan: resilver in progress since Thu Mar 7 12:39:22 2013 29.0G scanned out of 213G at 22.1M/s, 2h21m to go 29.0G resilvered, 13.64% done config: NAME STATE READ WRITE CKSUM rpool DEGRADED 0 0 0 mirror-0 DEGRADED 0 0 0 --> c5t3d0s0 UNAVAIL 0 0 0 --> c5t3d0s0 ONLINE 0 0 0 c3t1d0s0 DEGRADED 0 0 0 (resilvering) root@opensolaris:~# cfgadm Ap_Id Type Receptacle Occupant Condition sata4/0 sata-port empty unconfigured ok sata4/1::dsk/c5t1d0 disk connected configured ok sata4/2::dsk/c5t2d0 disk connected configured ok sata4/3::dsk/c5t3d0 disk connected configured ok sata5/0::dsk/c3t0d0 disk connected configured ok sata5/1::dsk/c3t1d0 disk connected configured ok
我無法執行
zpool detach rpool c5t3d0s0
它怎麼會知道我的意思?
您可以執行
zdb -C rpool
以獲取每個設備的 GUID,然後在 detach 命令中使用它。當然,您會看到 2 個具有相同 phys_path 的設備,並且它不顯示目前狀態,因此您不能 100% 確定哪個是 UNAVAIL 磁碟,哪個是 ONLINE 磁碟。您可以希望
zdb
以相同的順序顯示磁碟zpool status
(它在我的 2 路 FreeBSD 鏡像 - /dev/ada2 然後 /dev/ada1 上顯示)或者如果您嘗試刪除最後剩餘的線上磁碟,它會阻止您.