需要的磁盘个数:三块以上
我们在这里添加六块硬盘
其中四块做磁盘阵列,1块做预备(spare)磁盘,还有一块留作备用
注意:raid5 的磁盘使用率是N-1 也就是说四个100G的硬盘可用空间
是300G。
实验步骤:
1. 查看一下系统中的磁盘设备fdisk –l
看图
2. 接下来创建raid了使用的命令是mdadm,如果没有请先安装mdadm软件包
Rhel5的光盘中有!
看图
mdadm --create --auto=yes /dev/md0 --level=5 --raid-devices=4 --spare-devices=1 /dev/sd[b-f]
参数解释:
--create //表示要创建raid
--auto=yes /dev/md0 //新建立的软件磁盘陈列设备为md0,md序号可以为0-9
--level=5 //磁盘阵列的等级,这里是reid5
--raid-devices //添加作为预备(spare)磁盘的块数
/dev/sd[b-f] //磁盘阵列所使用的设备,还可以写成“/dev/sdb /dev/sdd /dev/sde /dev/sdf”同样可以缩写为:mdadm –C /dev/md0 –l5 –n4 –x1 /dev/sd[b-f]
查看RAID是否成功的创建是否运行的正常,有两种方法
查看详细信息:mdadm --detail /dev/md0 命令查看RAID的详细信息
看图
较为简单的查看:可以直接查看/proc/mdstat 的文件看到RAID运行的情况
cat /proc/mdstat
看图
格式化并且挂载和使用创建的RAID
mkfs.exe3 /dev/md0 //格式化 raid5磁盘为 mkfs.exe
mikdir /mnt/raid5 //在/mnt下创建/raid5 文件夹,用于挂载md0的
mount /dev/md0 /mnt/raid5 //将md0 挂载到raid5上去
查看一下挂载情况
df –hT
看图
试一下新加上的RAID是不是可以使用,向里面写入文件
看图
设置开机自动启动RAID以及自动挂载
让RAID开机启动, RIAD配置文件名字为mdadm.conf , 这个文件默
认是不存在的,要自己建立.该配置文件存在的主要作 用是系统启动的时候能
够自动加载软RAID,同时也方便日后管理. 说明下,mdadm.conf文件主要由以
下部分组成:
DEVICES选项制定组成RAID所有设备, ARRAY选项指定阵列的
设备名、RAID级别、阵列中活动设备的数目以及设备的UUID号.
自动启动raid
先建立/etc/mdadm.conf 这个文件
mdadm --detail --scan > /etc/mdadm.conf
要对这个文件做一下改动:vi /etc/mdadm.conf
看图
在设置RAID的自动挂载
修改文件 vi /etc/fstab
在里面加上一行 /dev/md0 /mnt/raid5 ext3 defaults 0 0
看图
模拟RAID5中的磁盘损坏,验证spare磁盘的功能(在raid5中允许一块磁盘
的损坏,也就是我们设置的spare磁盘会立即的替换坏掉的磁盘进行raid的重
建,保障数据的安全性):
mdadm –manage /dev/md0 –fail /dev/sdd //使用此命令设置sdd成为出错的状态
再来查看一下磁盘的信息:mdadm –-detail /dev/md0
看图
简单的查看一下RAID的情况:
看图
创建完成也就是说明raid5 已经自动的恢复了!
查看一下raid5是不是可以正常使用!
向里面写写数据。
将出错的磁盘移除并加入新的磁盘做备用的spare磁盘
先是删除损坏的磁盘sdd
mdadm –manage /dev/md0 --remove /dev/sdd //将坏掉的磁盘sdd从raid中除
在添加一块新的作为spare磁盘:
mdadm –manage /dev/md0 --add /dev/sdg //添加新的磁盘作sdg
Raid5 扩容: 利用Grow模式
mdadm –manage /dev/md0 --add /dev/sdg 添加一块新硬盘
active sync /dev/sdb1 # raid的真成员
spare /dev/sdc1 #raid备用成员
mdadm –G /dev/md0 –n“x” #-G是Grow模式 “x”是raid真成员的个数
命令参数
-A = --assemble 激活
-S = --stop 停止
-D = --detail 查看raid详细信息
-C = -- create 建立raid设备
-v = --verbose 显示建立过程的详细信息
-l = --level raid的级别
-n = --raid-devices raid设备数
-s = --scan 扫描raid设备
-f = --fail 标示坏的硬盘
-a = --add 添加硬盘
-r = -remove 移除坏的硬盘
现在再看一下磁盘信息情况:mdadm –-detail /dev/md0
如图
关闭RAID的方法:
>直接卸载/dev/md0,并且注释掉/etc/fstab文件中的配置
umount /dev/md0 //解除挂接
vi /etc/fstab //将fstab里面的开机自动挂载注释掉
#/dev/md0 /mnt/raid5 exit3 defaults 0 0
done