Linux
RAID 1 重建 /dev/sda 時是否可以從 /dev/sdb 重新啟動伺服器?
我有一個帶有 Raid 的專用伺服器,
/dev/sda
其中/dev/sdb
我/dev/sda
開始失敗,所以我下令更換它。干預後,伺服器進入救援模式,我沒有從支持人員那裡得到任何資訊,所以我一直在嘗試恢復它。我意識到即使他們更換了有缺陷的硬碟驅動器,他們也沒有費心複製分區
/dev/sdb
並將新硬碟驅動器添加到mdadm
. 因此,在我自己這樣做之後,我看到/proc/mdstat
現在正在恢復。root@rescue:/mnt/etc# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md2 : active raid1 sda2[0] sdb2[1] 523200 blocks [2/2] [UU] md3 : active raid1 sda3[0] sdb3[1] 20478912 blocks [2/2] [UU] md4 : active raid1 sdb4[1] sda4[2] 3884961728 blocks [2/1] [_U] [====>................] recovery = 22.4% (872776320/3884961728) finish=254.3min speed=197355K/sec bitmap: 1/29 pages [4KB], 65536KB chunk unused devices: <none>
我在我的備份中搜尋了 fstab 上適當的根分區:
# <file system> <mount point> <type> <options> <dump> <pass> /dev/md3 / ext4 errors=remount-ro,usrjquota=quota.user,jqfmt=vfsv0 0 1 /dev/md2 /boot ext4 errors=remount-ro 0 1 /dev/md4 /home ext4 defaults,usrquota 1 2 /dev/sda5 swap swap defaults 0 0 /dev/sdb5 swap swap defaults 0 0 proc /proc proc defaults 0 0 sysfs /sys sysfs defaults 0 0 /dev/sda1 /boot/efi vfat defaults 0 0 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts defaults 0 0 /usr/tmpDSK /tmp ext3 defaults,noauto 0 0
我通過從救援模式安裝它來確保它完好無損。
然後我嘗試使用 netboot 指定 /dev/md3 作為根分區。但是,當我嘗試執行此操作時,伺服器立即進入緊急模式,說明 /dev/sda 存在一些問題(我想是因為它仍在重建中)。
FAT-fs (sda1): bogus number of reserved sectors FAT-fs (sda1): Can't find a valid FAT filesystem
我無法通過登錄提示,因為我的 root 密碼似乎無法辨識,所以我真的不知道 journalctl -xb 顯示的結果,但我想那個硬碟驅動器的校驗和沒有加起來。
問題是,**有沒有辦法使用 RAID 重新啟動伺服器,但在重建 RAID 時優先考慮 /dev/sdb?**我知道每次重新啟動都會使 mdadm 修復過程回到 0%,所以我現在正試圖完全確定,如果我嘗試其他方法,它會起作用。
/dev/sda1 /boot/efi vfat defaults 0 0
您的 UEFI ESP 不在磁碟陣列上。需要這個來啟動,但它不能真的是一個數組。
恢復正常工作的文件系統。從備份中恢復它,或重新安裝它。每個系統管理員指南是:
yum reinstall grub2-efi shim
(理論上,你可以用 mdadm 重新同步一個 efi 磁碟。問題是,個別成員可能會被陣列外的 EFI 韌體更新,所以這非常醜陋和 hacky。)