Raid

群暉藍當機(led閃爍)

  • March 9, 2020

我的 Synology(10 個磁碟)突然無法重新啟動。

將它與串列埠連接,我可以設法在“Synology 1”和“Synology 2”上啟動

Synology 1 是一種“恢復分區”,可讓您使用 Synology 助手恢復 DSM。

Synology 2 是預設啟動選項,可在您的 DSM 上啟動。在我的情況下,synology 伺服器無法啟動。

我有 10 個磁碟中的 5 個突襲。

如何恢復它

我以這種方式找到了解決方案。

我刪除了所有磁碟,其中一個已格式化(你最好使用一個新的。我有一個備份,所以這樣做並沒有太大風險)使用

  • 分開
  • mklabel gpt
  • 辭職

我在我的 Synology 伺服器的最後一個插槽中插入了這個唯一的磁碟。並重新啟動它。此時,synology 助手可以安裝新的 dsm 版本。

安裝 dsm 後,我選擇不配置 raid。([ https://www.synology.com/en-us/knowledgebase/DSM/tutorial/General/How_to_reset_your_Synology_NAS])重新啟動 Synology。

重新啟動後,我添加了 9 個舊的其他磁碟並通過 ssh 連接到我的 Synology。

找出磁碟上的 RAID 資訊

bash-4.3# mdadm --examine /dev/sd[a-z] 
mdadm: No md superblock detected on /dev/sda.
mdadm: No md superblock detected on /dev/sdb.
mdadm: No md superblock detected on /dev/sdc.
mdadm: No md superblock detected on /dev/sdd.
mdadm: No md superblock detected on /dev/sde.
mdadm: No md superblock detected on /dev/sdf.
mdadm: No md superblock detected on /dev/sdg.
mdadm: No md superblock detected on /dev/sdh.
mdadm: No md superblock detected on /dev/sdi.
mdadm: No md superblock detected on /dev/sdj

這些是 DSM 配置的 RAID,所以在我的磁碟上沒有找到任何東西

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md1 : active raid1 sdj2[0]
     2097088 blocks [10/1] [U_________]

md0 : active raid1 sdj1[0]
     2490176 blocks [10/1] [U_________]

嘗試使用掃描選項組裝突襲

bash-4.3# mdadm --assemble --scan

似乎工作!

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md125 : active raid1 sda1[0] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
     2490176 blocks [10/9] [UUUUUUUUU_]

md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
     2097088 blocks [10/9] [UUUUUUUUU_]

md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
     35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]

md1 : active raid1 sdj2[0]
     2097088 blocks [10/1] [U_________]

md0 : active raid1 sdj1[0]
     2490176 blocks [10/1] [U_________]

unused devices: <none>

現在,我希望能夠進行突襲。

我會嘗試安裝raid md127,因為它似乎是最大的(包含我的數據的那個)

bash-4.3# mkdir /volume_restore
bash-4.3# mount /dev/md127 /volume_restore/
mount: unknown filesystem type 'LVM2_member'

我嘗試查找有關卷組的一些資訊

bash-4.3# vgdisplay 
 --- Volume group ---
 VG Name               vg1000
 System ID             
 Format                lvm2
 Metadata Areas        1
 Metadata Sequence No  2
 VG Access             read/write
 VG Status             resizable
 MAX LV                0
 Cur LV                1
 Open LV               0
 Max PV                0
 Cur PV                1
 Act PV                1
 VG Size               32.71 TiB
 PE Size               4.00 MiB
 Total PE              8574353
 Alloc PE / Size       8574353 / 32.71 TiB
 Free  PE / Size       0 / 0   
 VG UUID               Mxjnuy-PmQl-3TBT-zUa2-kBj8-j3AO-PNibo3

有一個卷組

bash-4.3# lvdisplay 
 --- Logical volume ---
 LV Path                /dev/vg1000/lv
 LV Name                lv
 VG Name                vg1000
 LV UUID                u1Ik6T-BQDC-ljKt-TocR-brIQ-5g6R-BR0JTv
 LV Write Access        read/write
 LV Creation host, time , 
 LV Status              NOT available
 LV Size                32.71 TiB
 Current LE             8574353
 Segments               1
 Allocation             inherit
 Read ahead sectors     auto

和一個邏輯卷

A 在 /dev/vg1000 中找不到 vg1000。我似乎不活躍。所以我啟動它做:

bash-4.3# vgchange -ay
 1 logical volume(s) in volume group "vg1000" now active

現在我可以安裝它了!

mount /dev/vg1000/lv /volume_restore/

@此時做好備份!

我們現在將“合併突襲”

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md125 : active raid1 sda1[0] sdi1[8] sdh1[7] sdg1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
     2490176 blocks [10/9] [UUUUUUUUU_]

md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
     2097088 blocks [10/9] [UUUUUUUUU_]

md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
     35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]

md1 : active raid1 sdj2[0]
     2097088 blocks [10/1] [U_________]

md0 : active raid1 sdj1[0]
     2490176 blocks [10/1] [U_________]

md125 似乎是我以前的 RAID 的舊根分區。我將嘗試將 md0 傳播到所有磁碟

第一站 /dev/md125

mdadm --stop /dev/md125

檢查是否已停止

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
     2097088 blocks [10/9] [UUUUUUUUU_]

md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
     35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]

md1 : active raid1 sdj2[0]
     2097088 blocks [10/1] [U_________]

md0 : active raid1 sdj1[0]
     2490176 blocks [10/1] [U_________]

現在將所有以前的磁碟分區添加到 raid

bash-4.3# /sbin/mdadm --add /dev/md0 /dev/sda1 /dev/sdi1 /dev/sdh1 /dev/sdg1 /dev/sdf1 /dev/sdc1 /dev/sdb1
mdadm: added /dev/sda1
mdadm: added /dev/sdi1
mdadm: added /dev/sdh1
mdadm: added /dev/sdg1
mdadm: added /dev/sdf1
mdadm: added /dev/sdc1
mdadm: added /dev/sdb1

檢查它是否有效

bash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md126 : active raid1 sda2[0] sdi2[8] sdh2[7] sdg2[6] sdf2[5] sde2[4] sdd2[3] sdc2[2] sdb2[1]
     2097088 blocks [10/9] [UUUUUUUUU_]

md127 : active raid5 sda5[0] sdi5[8] sdh5[7] sdg5[6] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
     35120552832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [10/9] [UUUUUUUUU_]

md1 : active raid1 sdj2[0]
     2097088 blocks [10/1] [U_________]

md0 : active raid1 sdb1[10](S) sdc1[11](S) sdf1[12](S) sdg1[13](S) sdh1[14](S) sdi1[15](S) sda1[16] sdj1[0]
     2490176 blocks [10/1] [U_________]
     [>....................]  recovery =  2.4% (60032/2490176) finish=3.3min speed=12006K/sec

你可以對 md1 做同樣的事情

對於您的數據突襲,您需要在“新磁碟”上創建分區(在我的情況下為 sdj5)。

我很容易在 /dev/sda 上使用 parted 來了解分區的屬性

rbash-4.3# parted /dev/sda
GNU Parted 3.2
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print                                                            
print
Model: WDC WD4000F9YZ-09N20 (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system     Name  Flags
1      131kB   2550MB  2550MB  ext4                  raid
2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
5      4840MB  4001GB  3996GB                        raid

使用 parted /dev/sdj 創建了相同的分區

bash-4.3# parted /dev/sdj
mkpart primary 4840MB 4001GB
set 1 raid on
Model: WDC WD4000F9YZ-09N20 (scsi)
Disk /dev/sdj: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system     Name  Flags
1      1049kB  2551MB  2550MB  ext4                  raid
2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
3      4840MB  4001GB  3996GB                        raid
quit

此時它創建了一個分區 n°3,但我不介意。

我只需要將這個分區添加到我的 raid 中:

bash-4.3# /sbin/mdadm --add /dev/md127 /dev/sdj3

然後你可以檢查你的團隊是否正在重建

bash-4.3# cat /proc/mdstat

引用自:https://serverfault.com/questions/809974