群暉藍當機(led閃爍)
我的 Synology(10 個磁碟)突然無法重新啟動。
將它與串列埠連接,我可以設法在“Synology 1”和“Synology 2”上啟動
Synology 1 是一種“恢復分區”,可讓您使用 Synology 助手恢復 DSM。
Synology 2 是預設啟動選項,可在您的 DSM 上啟動。在我的情況下,synology 伺服器無法啟動。
我有 10 個磁碟中的 5 個突襲。
如何恢復它
我以這種方式找到了解決方案。
我刪除了所有磁碟,其中一個已格式化(你最好使用一個新的。我有一個備份,所以這樣做並沒有太大風險)使用
- 分開
- mklabel gpt
- 寫
- 辭職
我在我的 Synology 伺服器的最後一個插槽中插入了這個唯一的磁碟。並重新啟動它。此時,synology 助手可以安裝新的 dsm 版本。
安裝 dsm 後,我選擇不配置 raid。([ https://www.synology.com/en-us/knowledgebase/DSM/tutorial/General/How_to_reset_your_Synology_NAS])重新啟動 Synology。
重新啟動後,我添加了 9 個舊的其他磁碟並通過 ssh 連接到我的 Synology。
找出磁碟上的 RAID 資訊
bash-4.3# mdadm --examine /dev/sd[a-z] mdadm: No md superblock detected on /dev/sda. mdadm: No md superblock detected on /dev/sdb. mdadm: No md superblock detected on /dev/sdc. mdadm: No md superblock detected on /dev/sdd. mdadm: No md superblock detected on /dev/sde. mdadm: No md superblock detected on /dev/sdf. mdadm: No md superblock detected on /dev/sdg. mdadm: No md superblock detected on /dev/sdh. mdadm: No md superblock detected on /dev/sdi. mdadm: No md superblock detected on /dev/sdj
這些是 DSM 配置的 RAID,所以在我的磁碟上沒有找到任何東西
bash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md1 : active raid1 sdj2[0] 2097088 blocks [10/1] [U_________] md0 : active raid1 sdj1[0] 2490176 blocks [10/1] [U_________]
嘗試使用掃描選項組裝突襲
bash-4.3# mdadm --assemble --scan
似乎工作!
bash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md125 : active raid1 sda1[0] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] 2490176 blocks [10/9] [UUUUUUUUU_] md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1] 2097088 blocks [10/9] [UUUUUUUUU_] md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1] 35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_] md1 : active raid1 sdj2[0] 2097088 blocks [10/1] [U_________] md0 : active raid1 sdj1[0] 2490176 blocks [10/1] [U_________] unused devices: <none>
現在,我希望能夠進行突襲。
我會嘗試安裝raid md127,因為它似乎是最大的(包含我的數據的那個)
bash-4.3# mkdir /volume_restore bash-4.3# mount /dev/md127 /volume_restore/ mount: unknown filesystem type 'LVM2_member'
我嘗試查找有關卷組的一些資訊
bash-4.3# vgdisplay --- Volume group --- VG Name vg1000 System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 2 VG Access read/write VG Status resizable MAX LV 0 Cur LV 1 Open LV 0 Max PV 0 Cur PV 1 Act PV 1 VG Size 32.71 TiB PE Size 4.00 MiB Total PE 8574353 Alloc PE / Size 8574353 / 32.71 TiB Free PE / Size 0 / 0 VG UUID Mxjnuy-PmQl-3TBT-zUa2-kBj8-j3AO-PNibo3
有一個卷組
bash-4.3# lvdisplay --- Logical volume --- LV Path /dev/vg1000/lv LV Name lv VG Name vg1000 LV UUID u1Ik6T-BQDC-ljKt-TocR-brIQ-5g6R-BR0JTv LV Write Access read/write LV Creation host, time , LV Status NOT available LV Size 32.71 TiB Current LE 8574353 Segments 1 Allocation inherit Read ahead sectors auto
和一個邏輯卷
A 在 /dev/vg1000 中找不到 vg1000。我似乎不活躍。所以我啟動它做:
bash-4.3# vgchange -ay 1 logical volume(s) in volume group "vg1000" now active
現在我可以安裝它了!
mount /dev/vg1000/lv /volume_restore/
@此時做好備份!
我們現在將“合併突襲”
bash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md125 : active raid1 sda1[0] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] 2490176 blocks [10/9] [UUUUUUUUU_] md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1] 2097088 blocks [10/9] [UUUUUUUUU_] md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1] 35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_] md1 : active raid1 sdj2[0] 2097088 blocks [10/1] [U_________] md0 : active raid1 sdj1[0] 2490176 blocks [10/1] [U_________]
md125 似乎是我以前的 RAID 的舊根分區。我將嘗試將 md0 傳播到所有磁碟
第一站 /dev/md125
mdadm --stop /dev/md125
檢查是否已停止
bash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1] 2097088 blocks [10/9] [UUUUUUUUU_] md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1] 35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_] md1 : active raid1 sdj2[0] 2097088 blocks [10/1] [U_________] md0 : active raid1 sdj1[0] 2490176 blocks [10/1] [U_________]
現在將所有以前的磁碟分區添加到 raid
bash-4.3# /sbin/mdadm --add /dev/md0 /dev/sda1 /dev/sdi1 /dev/sdh1 /dev/sdg1 /dev/sdf1 /dev/sdc1 /dev/sdb1 mdadm: added /dev/sda1 mdadm: added /dev/sdi1 mdadm: added /dev/sdh1 mdadm: added /dev/sdg1 mdadm: added /dev/sdf1 mdadm: added /dev/sdc1 mdadm: added /dev/sdb1
檢查它是否有效
bash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1] 2097088 blocks [10/9] [UUUUUUUUU_] md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1] 35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_] md1 : active raid1 sdj2[0] 2097088 blocks [10/1] [U_________] md0 : active raid1 sdb1[10](S) sdc1[11](S) sdf1[12](S) sdg1[13](S) sdh1[14](S) sdi1[15](S) sda1[16] sdj1[0] 2490176 blocks [10/1] [U_________] [>....................] recovery = 2.4% (60032/2490176) finish=3.3min speed=12006K/sec
你可以對 md1 做同樣的事情
對於您的數據突襲,您需要在“新磁碟”上創建分區(在我的情況下為 sdj5)。
我很容易在 /dev/sda 上使用 parted 來了解分區的屬性
rbash-4.3# parted /dev/sda GNU Parted 3.2 Using /dev/sda Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) print print Model: WDC WD4000F9YZ-09N20 (scsi) Disk /dev/sda: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 131kB 2550MB 2550MB ext4 raid 2 2550MB 4698MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid
使用 parted /dev/sdj 創建了相同的分區
bash-4.3# parted /dev/sdj mkpart primary 4840MB 4001GB set 1 raid on Model: WDC WD4000F9YZ-09N20 (scsi) Disk /dev/sdj: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 3 4840MB 4001GB 3996GB raid quit
此時它創建了一個分區 n°3,但我不介意。
我只需要將這個分區添加到我的 raid 中:
bash-4.3# /sbin/mdadm --add /dev/md127 /dev/sdj3
然後你可以檢查你的團隊是否正在重建
bash-4.3# cat /proc/mdstat