Linux

RAID 1 中的 3 個磁碟使用一半/一半

  • January 6, 2015

我在執行 3x120GB ssd 驅動器的新伺服器上使用 mdadm 軟體 raid 系統。

目前,這是伺服器附帶的預裝配置

cat /proc/mdstat
Personalities : [raid1] 
md2 : active raid1 sdb2[1] sda2[0] sdc2[2]
     96211904 blocks [3/3] [UUU]

md1 : active raid1 sda1[0] sdc1[2] sdb1[1]
     20478912 blocks [3/3] [UUU]

unused devices: <none>

我希望有超過 120gb 的可用空間,因為現在它只使用 1 個驅動器來儲存數據,1 個在 raid + 另一個在備用備份中。

我的問題是:是否有可能讓 3 個驅動器執行一個 raid 1?

範例:3x120GB = 360GB。有 180GB 可用空間和 180GB 在突襲中

任何幫助將非常感激。

有關我目前設置的更多資訊,僅顯示 120GB

df -h
Filesystem      Size  Used Avail Use% Mounted on
devtmpfs         16G  208K   16G   1% /dev
tmpfs            16G     0   16G   0% /dev/shm
/dev/md1         20G  1.3G   17G   7% /
/dev/md2         91G  200M   86G   1% /vz
/dev/md1         20G  1.3G   17G   7% /var/named/chroot/etc/named
/dev/md1         20G  1.3G   17G   7% /var/named/chroot/var/named
/dev/md1         20G  1.3G   17G   7% /var/named/chroot/etc/named.conf
/dev/md1         20G  1.3G   17G   7% /var/named/chroot/etc/named.rfc1912.zones
/dev/md1         20G  1.3G   17G   7% /var/named/chroot/etc/rndc.key
/dev/md1         20G  1.3G   17G   7% /var/named/chroot/usr/lib64/bind
/dev/md1         20G  1.3G   17G   7% /var/named/chroot/etc/named.iscdlv.key
/dev/md1         20G  1.3G   17G   7% /var/named/chroot/etc/named.root.key

聽起來你想要一個 RAID10,在你的三個磁碟上有兩個鏡像。使用 Linux 軟體 RAID 進行完全正常的設置。

http://en.wikipedia.org/wiki/Linux_MD_RAID_10#Linux_MD_RAID_10

完全按照您的描述進行。您可以決定每個數據塊需要多少個副本(鏡像),它會將數據條帶化以填充所有磁碟。

例如,如果我有三個設備(/dev/loop0, /dev/loop1, /dev/loop2),每個設備都是 100M,我可以通過這種方式完成您的建議:

> sudo mdadm --create --level raid10 -n 3 -p f2 /dev/md/test /dev/loop{0..2}
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/test started.

-p f2表示您想要一個“遠”佈局,每個塊設備都有“兩個”副本。如您所見,新的 RAID 設備大約是每個磁碟大小的 1.5 倍:

> sudo blockdev --getsize64 /dev/md/test /dev/loop{0..2} 
157286400
105906176
105906176
105906176

引用自:https://serverfault.com/questions/656249