Ubuntu

AWS 上的 Ubuntu 軟體 RAID 0 無法在重啟後存活

  • August 23, 2013

我正在嘗試按照本指南在 Amazon AWS 上執行的 Ubuntu 9.10 上從 4 個 EBS 卷創建軟體 RAID 0 設備:

http://alestic.com/2009/06/ec2-ebs-raid

設備出現(根據 SysBench,它比正常附加的 EBS 卷快 3.5 倍)。

問題是,當我重新啟動實例時,RAID 設備上的所有文件都消失了。該設備可用並安裝在預期的位置,但不包含文件。我可以向它寫入新文件,這些文件會一直存在到下一次重新啟動。

編輯:

這是我用來設置 RAID 的腳本。它寫入 /etc/fstab 和 /etc/mdadm.conf

#!/bin/bash
# Create RAID 

volumes=4
devices="/dev/sdj /dev/sdk /dev/sdl /dev/sdm"
devicearray=($devices)
volumeids="vol-11111111 vol-22222222 vol-33333333 vol-44444444"

yes | sudo mdadm          \
 --create /dev/md0       \
 --level 0               \
 --metadata=1.1          \
 --raid-devices $volumes \
 $devices

echo DEVICE $devices | sudo tee /etc/mdadm.conf 
sudo mdadm --detail --scan | sudo tee -a /etc/mdadm.conf
sudo mkfs.xfs /dev/md0

mountpoint=/mnt/raid
echo "/dev/md0 $mountpoint xfs noatime 0 0" | sudo tee -a /etc/fstab
sudo mkdir $mountpoint
sudo mount $mountpoint

/etc/fstab

# /etc/fstab: static file system information.
# <file system>                                 <mount point>   <type>  <options>       <dump>  <pass>
proc                                            /proc           proc    defaults        0       0
/dev/sda1                                       /               ext3    defaults        0       0
/dev/sdb                                        /mnt            ext3    defaults        0       0
/dev/md0 /mnt/raid xfs noatime 0 0

/etc/mdadm.conf

DEVICE /dev/sdj /dev/sdk /dev/sdl /dev/sdm
ARRAY /dev/md0 level=raid0 num-devices=4 metadata=01.01 name=ip-10-194-5-235:0 UUID=67392a94:553fddec:4bc8e5c7:8d25c3ca

似乎 mdadm 中設備名稱後的額外空格導致了該問題。編輯掉多餘的空白並重複該過程可以解決問題。

添加 rw 你 fstab 行。像這樣, /dev/md0 /mnt xfs rw,noatime 0 0

引用自:https://serverfault.com/questions/141991