在linux中实现软raid5

7281阅读 0评论2011-08-11 bazhic
分类:

需要的磁盘个数:三块以上

                            我们在这里添加六块硬盘

                            其中四块做磁盘阵列,1块做预备(spare)磁盘,还有一块留作备用

                            注意raid5 的磁盘使用率是N-1 也就是说四个100G的硬盘可用空间

                                     300G

实验步骤:

1.       查看一下系统中的磁盘设备fdisk –l 

看图

2.       接下来创建raid了使用的命令是mdadm,如果没有请先安装mdadm软件包

Rhel5的光盘中有!

                             看图

mdadm --create --auto=yes /dev/md0 --level=5 --raid-devices=4 --spare-devices=1 /dev/sd[b-f]

参数解释

              --create               //表示要创建raid

--auto=yes /dev/md0    //新建立的软件磁盘陈列设备为md0,md序号可以为0-9

--level=5              //磁盘阵列的等级,这里是reid5

--raid-devices          //添加作为预备(spare)磁盘的块数

/dev/sd[b-f]           //磁盘阵列所使用的设备,还可以写成“/dev/sdb /dev/sdd /dev/sde /dev/sdf”同样可以缩写为:mdadm –C /dev/md0 –l5     –n4 –x1 /dev/sd[b-f]

查看RAID是否成功的创建是否运行的正常,有两种方法

查看详细信息:mdadm --detail /dev/md0 命令查看RAID的详细信息


看图

较为简单的查看:可以直接查看/proc/mdstat 的文件看到RAID运行的情况

cat /proc/mdstat 

看图

 

格式化并且挂载和使用创建的RAID

mkfs.exe3  /dev/md0           //格式化   raid5磁盘为 mkfs.exe

mikdir /mnt/raid5                 ///mnt下创建/raid5 文件夹,用于挂载md0

mount /dev/md0 /mnt/raid5   //md0 挂载到raid5上去

查看一下挂载情况

df –hT

看图

 

试一下新加上的RAID是不是可以使用,向里面写入文件

看图

 

设置开机自动启动RAID以及自动挂载

RAID开机启动, RIAD配置文件名字为mdadm.conf , 这个文件默

认是不存在的,要自己建立.该配置文件存在的主要作 用是系统启动的时候能

够自动加载软RAID,同时也方便日后管理. 说明下,mdadm.conf文件主要由以

下部分组成:

DEVICES选项制定组成RAID所有设备, ARRAY选项指定阵列的

设备名、RAID级别、阵列中活动设备的数目以及设备的UUID.

自动启动raid

先建立/etc/mdadm.conf  这个文件

mdadm --detail --scan > /etc/mdadm.conf

要对这个文件做一下改动:vi /etc/mdadm.conf

看图                

在设置RAID的自动挂载

修改文件           vi /etc/fstab

在里面加上一行     /dev/md0   /mnt/raid5     ext3     defaults    0   0

看图

 

模拟RAID5中的磁盘损坏,验证spare磁盘的功能(在raid5中允许一块磁盘

的损坏,也就是我们设置的spare磁盘会立即的替换坏掉的磁盘进行raid的重

建,保障数据的安全性):

mdadm –manage /dev/md0 –fail /dev/sdd //使用此命令设置sdd成为出错的状态

 

再来查看一下磁盘的信息:mdadm –-detail /dev/md0

看图

 

简单的查看一下RAID的情况:

看图

 

创建完成也就是说明raid5 已经自动的恢复了!

 

查看一下raid5是不是可以正常使用!

向里面写写数据。

 

将出错的磁盘移除并加入新的磁盘做备用的spare磁盘

先是删除损坏的磁盘sdd

mdadm –manage /dev/md0 --remove /dev/sdd   //将坏掉的磁盘sddraid中除

 

在添加一块新的作为spare磁盘

mdadm –manage /dev/md0 --add /dev/sdg      //添加新的磁盘作sdg

 

Raid5 扩容: 利用Grow模式

                     mdadm –manage /dev/md0 --add /dev/sdg  添加一块新硬盘

active sync /dev/sdb1  # raid的真成员

spare /dev/sdc1       #raid备用成员

mdadm –G  /dev/md0 –nx  #-GGrow模式 x”是raid真成员的个数

 

命令参数

-A  =  --assemble       激活

-S  =  --stop           停止

-D  =  --detail          查看raid详细信息

-C  =  -- create         建立raid设备

-v  =  --verbose        显示建立过程的详细信息

-l  =  --level           raid的级别

-n  =  --raid-devices     raid设备数

-s  =  --scan            扫描raid设备

-f  =  --fail             标示坏的硬盘

-a  =  --add             添加硬盘

-r  =  -remove           移除坏的硬盘

 

                     现在再看一下磁盘信息情况:mdadm –-detail /dev/md0         

如图


关闭RAID的方法:

>直接卸载/dev/md0,并且注释掉/etc/fstab文件中的配置

umount /dev/md0      //解除挂接

vi /etc/fstab                   //fstab里面的开机自动挂载注释掉

#/dev/md0     /mnt/raid5     exit3     defaults         0   0

 

  

done

上一篇:Nagios安装部署与Cacti整合文档超精细版本
下一篇:shell中的数组使用方法