Centos
在失敗的軟體 RAID 1 設置上保存數據
我的 CentOS 6 伺服器正在執行帶有兩個 1 TB 磁碟的軟體 RAID 1 配置。昨天當伺服器反應遲鈍時,麻煩就開始發生了。我檢查了日誌並註意到一大堆與磁碟 IO 有關的連續錯誤消息。我還注意到第二個磁碟 /dev/sdb 被“踢”出 RAID 1 設置。它說它已退化並顯示
$$ U_ $$代替$$ UU $$當我做了一個
cat /proc/mdstat
. 輸出如下所示:root@rescue:~# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md1 : active raid1 sda1[0] 20971456 blocks [2/1] [U_] md2 : active raid1 sda2[0] 955260864 blocks [2/1] [U_] unused devices: <none>
在聯繫我的伺服器正在執行並執行 smartctl 以檢查驅動器的託管公司後,結果發現兩個磁碟都需要更換。
此時我只能進入救援模式,我仍然可以掛載我的分區(/dev/md1 和 /dev/md2)並訪問數據。我已經使用 scp 下載了最新的 Plesk 備份。
現在請耐心等待,因為我不是伺服器管理員,但我的計劃是首先更換第二個磁碟 /dev/sdb 並將其重新添加到 RAID 1 設置中。這樣,新的第二個磁碟將與舊磁碟 1 同步。完成後,我可以對磁碟 1 重複該過程,並將新磁碟 1 與新磁碟 2 同步。這可能嗎?
另外我應該採取什麼步驟來做到這一點?
- 用新磁碟 2 更換故障磁碟 2
- 分區磁碟 2 與磁碟 1 相同:
sfdisk -d /dev/sda | sfdisk /dev/sdb
- 將新磁碟添加到分區 /dev/md1 和 /dev/md2:
mdadm --manage /dev/md1 --add /dev/sdb1
和mdadm --manage /dev/md2 --add /dev/sdb2
- 等待同步完成密切關注 /proc/mdstat 進行驗證
- 對磁碟 1 重複上述步驟
這看起來好嗎?同步會在第 3 點之後立即開始嗎?我在這些步驟中忘記了什麼嗎?
如果兩個驅動器都需要更換,那麼您很可能會在陣列重建時失去第一個驅動器。我只會讓自己頭疼並從備份中恢復。