Linux RAID配置(使用mdadm命令)教程
图形界面确实方便,不过 RAID 和 LVM 一样,主要的应用还是在命令行当中,因为如果硬盘出现了数据损坏,总不能重新安装吧!
本节,我们学习在命令行界面中如何分配和使用 RAID,这次我们仍然使用相同大小的分区配置最为常见的 RAID 5。
建立分区
建立三个 2GB 大小的分区,构建 RAID 5。不过我们多建立了一个 2GB 大小的分区,这个分区用作备份分区。
备份分区的作用是什么呢? RAID 最大的好处就是具有数据冗余功能,当有一块硬盘或分区损坏时,数据不会丟失,只要插入新的硬盘或分区,依赖其他分区就会主动重建损坏的硬盘或分区中的数据。不过这仍然需要关闭服务器,手工插拔硬盘。
如果在组成 RAID 的时候就加入了备份硬盘或备份分区,那么当硬盘或分区损坏时,RAID 会自动用备份硬盘或备份分区代替损坏的硬盘或分区,然后立即重建数据,而不需要人为手工参与。这样就避免了服务器停机和人为手工参与,非常方便,唯一的问题就是需要多余的硬盘或分区作为备份设备。
也就是说,我们在这个实验中需要 4 个 2GB 大小的分区,其中 3 个组成 RAID 5,1 个作为备份分区。建立分区的过程这里不再详细解释,建立完分区之后,可以使用 fdisk -l 命令査看。命令如下:
	[root@localhost ~]#fdisk -l
	...省略部分输出...
	Disk /dev/sdb: 21.5 GB, 21474836480 bytes 255 heads, 63 sectors/track, 2610 cylinders
	Units = cylinders of 16065 * 512 = 8225280 bytes
	Sector size (logical/physical): 512 bytes / 512 bytes
	I/O size (minimum/optimal): 512 bytes / 512 bytes
	Disk identifier: 0xba384969
	Device Boot Start End Blocks ld System
	/dev/sdb1 1 2610 20964793+ 5 Extended
	/dev/sdb5 1 262 2104452 83 Linux
	/dev/sdb6 263 524 2104483+ 83 Linux
	/dev/sdb7 525 786 2104483+ 83 Linux
	/dev/sdb8 787 1048 2104483+ 83 Linux
我们建立了 /dev/sdb5、/dev/sdb6、/dev/sdb7 和 /dev/sdb8 共 4 个 2GB 大小的分区。
mdadm命令建立 RAID 5
建立 RAID 使用 mdadm 命令,命令格式如下:
[root@localhost ~]# mdadm [模式] [RAID设备文件名] [选项]
模式:
- Assemble:加入一个已经存在的阵列;
- Build:创建一个没有超级块的阵列;
- Create:创建一个阵列,每个设备都具有超级块;
- Manage:管理阵列,如添加设备和删除损坏设备;
- Misc:允许单独对阵列中的设备进行操作,如停止阵列;
- Follow or Monitor:监控RAID状态; Grow:改变RAID的容量或阵列中的数目;
选项:
- -s,-scan:扫描配置文件或/proc/mdstat文件,发现丟失的信息;
- -D,-detail:查看磁盘阵列详细信息;
- -C,-create:建立新的磁盘阵列,也就是调用 Create模式;
- -a,-auto=yes:采用标准格式建立磁阵列
- -n,-raicklevices=数字:使用几块硬盘或分区组成RAID
- -l,-level=级别:创建RAID的级别,可以是0,1,5
- -x,-spare-devices=数字:使用几块硬盘或分区组成备份设备
- -a,-add 设备文件名:在已经存在的RAID中加入设备
- -r,-remove 设备文件名名:在已经存在的RAID中移除设备
- -f,-fail设备文件名:把某个组成RAID的设备设置为错误状态
- -S,-stop:停止RAID设备
- -A,-assemble:按照配置文件加载RAID
我们准备创建的是 RAID 5,所以使用以下命令创建:
	[root@localhost ~]# mdadm -create -auto=yes /dev/md0-level=5 \
	-raid-devices=3 -spare-devices=1 /dev/sdb5/dev/sdb6 /dev/sdb7 /dev/sdb8
其中,/dev/md0 是第一个 RAID 设备的设备文件名,如果还有 RAID 设备,则可以使用 /dev/md[0~9] 来代表。我们建立了一个 RAID 5,使用了三个分区,并建立了一个备份分区。先查看一下新建立的 /dev/md0,命令如下:
	[root@localhost ~]# mdadm --detail /dev/md0
	/dev/md0:
	#设备文件名
	Version : 1.2
	Creation Time : Tue Apr 23 23:13:48 2013
	#创建时间
	Raid Level : raid5
	#RAID 级别
	Array Size : 4206592 (4.01 GiB 4.31 GB) +RAID #总容量
	Used Dev Size : 2103296 (2.01 GiB 2.15 GB)
	#每个分区的容量
	Raid Devices : 3
	#组成 RAID 的设备数
	Total Devices : 4
	#总设备数
	Persistence : Superblock is persistent
	Update Time : Tue Apr 23 23:14:52 2013 State : clean
	Active Devices : 3
	#激活的设备数
	Working Devices : 4
	#可用的设备数
	Failed Devices : 0
	#错误的设备数
	Spare Devices : 1
	#备份设备数
	Layout : left-symmetric
	Chunk Size : 512K
	Name : localhost.localdomain:0 (local to host localhost.localdomain) UOID : 15026b78:126a4930:89d8cf54:5bcb7e95 Events : 18
	Number Major Minor RaidDevice State
	0 8 21 0 active sync /dev/sdb5
	1 8 22 1 active sync /dev/sdb6
	4 8 23 2 active sync /dev/sdb7
	#三个激活的分区
	3 8 24 - spare /dev/sdb8
	#备份分区
再查看一下 /proc/mdstat 文件,这个文件中也保存了 RAID 的相关信息。命令如下:
	[root@localhost ~]# cat /proc/mdstat
	Personalities:[raid6] [raid5] [raid4]
	md0:active raid5 sdb9[4](S) sdb5[0] sdb8[3] sdb6[1]
	#RAID名 级别 组成RAID的分区,[数字]是此分区在RAID中的顺序
	#(S)代表备份分区
	4206592 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
	#总block数 等级是5 区块大小 阵列算法 [组成设备数/正常设备数]
	unused devices: <none>
格式化与挂载RAID
RAID 5 已经创建,但是要想正常使用,也需要格式化和挂载。格式化命令如下:
[root@localhost ~]# mkfs -t ext4 /dev/md0
挂载命令如下:
	[root@localhost ~]# mkdir /raid
	#建立挂载点
	[root@localhost ~]# mount /dev/md0 /raid/
	#挂载/dev/md0
	[root@localhost ~]# mount
	…省略部分输出…
	/dev/md0 on /raid type ext4(rw)
	#查看一下,已经正常挂载
生成mdadm配置文件
在 CentOS 6.x 中,mdadm 配置文件并不存在,需要手工建立。我们使用以下命令建立 /etc/mdadm.conf 配置文件:
	[root@localhost ~]# echo Device /dev/sdb[5-8] >>/etc/mdadm.conf
	#建立/etc/mdadm.conf配置立件,并把组成RAID的分区的设备文件名写入
	#注意:如果有多个RAID,则要把所有组成RAID的设备都放入配置文件中;否则RAID设备重启后会丟失
	#比如组成RAID 10,就既要把分区的设备文件名放入此文件中,也翻组成RAID 0的RAID 1设备文件名放入
	[root@localhost ~]# mdadm -Ds >>/etc/mdadm.conf
	#查询和扫描RAID信息,并追加进/etc/mdadm.conf文件
	[root@localhost ~]# cat /etc/mdadm.conf
	Device /dev/sdb5 /dev/sdb6 /dev/sdb7 /dev/sdb8
	ARRAY /dev/md0 metadata: 1.2 spares=1 name=l(xalhost.localdomain:0 UUID=dd821fe5:8597b126:460a3afd:857c7989
	#查看文件内容
设置开机后自动挂载
自动挂载也要修改 /etc/fstab 配置文件,命令如下:
	[root@localhost ~]# vi /etc/fstab
	/dev/mdO /raid
	ext4 defaults 12
	#加入此行
如果要重新启动,则一定要在这一步完成之后再进行,否则会报错。
启动或停止RAID
RAID 设备生效后,不用手工启动或停止。但是,如果需要卸载 RAID 设备,就必须手工停止 RAID。这里我们学习一下启动和停止 RAID 的方法。先看看停止命令:
	[root@localhost ~]# mdadm -S /dev/md0
	#停止/dev/md0设备
当然,如果要删除 RAID,则要非常小心,要把所有和 RAID 相关的内容全部删除,才能保证系统不报错。需要进行的步骤如下:
	[root@localhost ~]# umount /dev/md0
	#卸载RAID
	[root@localhost ~】# vi /etc/fstab
	/dev/md0 /raid ext4 defaults 12
	#删除此行
	[root@localhost ~]# mdadm -S /dev/md0
	mdadm: stopped /dev/md0
	#停止RAID
	[root@localhost ~]# vi /etc/mdadm.conf
	ARRAY /dev/md0 metadata: 1.2 spares=1 name=localhost.localdomain:0 UUID=dd821fe5:8597b126:460a3afd:857c7989
	#删除或者注释此行
如果仅仅是停止,而不是删除,就没有这么麻烦了,只需先下载,再停止即可。那停止完成之后,怎么再启动呢?启动 RAID 的命令如下:
	[root@localhost ~]# mdadm -As /dev/md0
	mdadm: /dev/md0 has been started with 3 drives and 1 spare.
	#启动/dev/md0
	[root@localhost ~]# mount /dev/md0 /raid/
	#启动RAID后,记得挂载
模拟分区出现故障
我们的 RAID 虽然配置完成了,但是它真的生效了吗?我们模拟磁盘报错,看看备份分区是否会自动代替错误分区。mdadm 命令有一个选项 -f,这个选项的作用就是把一块硬盘或分区变成错误状态,用来模拟 RAID 报错。命令如下:
	[root@localhost ~]# mdadm /dev/mdO -f /dev/sdb7 mdadm: set /dev/sdb7 faulty in /dev/mdO、
	#模拟/dev/sdb7分区报错
	[root@1ocalhost ~】# mdadm -D /dev/mdO /dev/mdO:
	...省略部分输出...
	Active Devices : 2
	Working Devices : 3
	Failed Devices : 1
	#1个设备报错了
	Spare Devices : 1
	...省略部分输出...
	Number Major Minor RaidDevice State
	0 8 21 0 active sync /dev/sdb5
	1 8 22 1 active sync /dev/sdb6
	3 8 24 2 spare rebuilding /dev/sdb8
	#/dev/sdb8分区正在准备修复
	4 8 23 - faulty spare /dev/sdb7
	#/dev/sdb7已经报错了
要想看到上面的效果,査看时要快一点,否则修复就可能完成了。因为有备份分区的存在,所以分区损坏了,是不用管理员手工的。如果修复完成,再查看,就会出现下面的情况:
	[root@localhost ~]# mdadm /dev/mdO
	Number Major Minor RaidDevice State
	0 8 21 0 active sync /dev/sdb5
	1 8 22 1 active sync /dev/sdb6
	3 8 24 2 active sync /dev/sdb8
	4 8 23 - faulty spare /dev/sdb7
备份分区/dev/sdb8已经被激活,但是 /dev/sdb7分区失效。
移除错误分区
既然分区已经报错了,我们就把 /dev/sdb7 分区从 RAID 中删除。如果这是硬盘,就可以进行更换硬盘的处理了。
移除命令如下:
	[root@localhost ~]# mdadm /dev/md0
	-remove/dev/sdb7
	mdadm: hot removed /dev/sdb7 from /dev/mdO
添加新的备份分区
既然分区已经报错,那么我们还需要加入一个新的备份分区,以备下次硬盘或分区出现问题。既然要加入新的备份分区,当然还需要再划分出一个 2GB 大小的分区出来,命令如下:
	[root@localhost ~]#fdisk -l
	Disk /dev/sdb: 21.5 GB, 21474836480 bytes
	255 heads, 63 sectors/track, 2610 cylinders
	Units = cylinders of 16065 *512 = 8225280 bytes
	Sector size (logical/physical): 512 bytes / 512 bytes
	I/O size (minimum/optimal): 512 bytes 1512 bytes
	Disk identifier: 0x151a68a9
	Device Boot Start End Blocks Id System
	/dev/sdb1 1 2610 20964793+ 5 Extended
	/dev/sdb5 1 262 2104452 83 Linux
	/dev/sdb6 263 524 2104483+ 83 Linux
	/dev/sdb7 525 786 2104483+ 83 Linux
	/dev/sdb8 787 1048 2104483+ 83 Linux
	/dev/sdb9 1049 1310 2104483+ 83 Linux
我们新建了 /dev/sdb9 分区,然后把它加入 /dev/md0 作为备份分区,命令如下:
	[root@localhost ~]# mdadm /dev/md0 -add /dev/sdb9
	mdadm: added /dev/sdb9
	#把/dev/sdb9加入/dev/md0
	[root@localhost ~]# mdadm -D /dev/md0
	...省略部分输出...
	Number Major Minor RaidDevice State
	0 8 21 0 active sync /dev/sdb5
	1 8 22 1 active sync /dev/sdb6
	3 8 24 2 active sync /dev/sdb8
	4 8 25 - spare /dev/sdb9
	#查看一下,/dev/sdb9已经变成了备份分区
 
					 
					 
					
发表评论