理论+实验服务器硬件即RAID配置实战

[TOC]

十年专注成都网站制作,企业网站设计,个人网站制作服务,为大家分享网站制作知识、方案,网站设计流程、步骤,成功服务上千家企业。为您提供网站建设,网站制作,网页设计及定制高端网站建设服务,专注于企业网站设计,高端网页制作,对成都岗亭等多个领域,拥有丰富的网站营销经验。

前言:

磁盘阵列(Redundant Arrays of Independent Drives,RAID),有“独立磁盘构成的具有冗余能力的阵列”之意。
磁盘阵列是由很多块独立的磁盘,组合成一个容量巨大的磁盘组,利用个别磁盘提供数据所产生加成效果提升整个磁盘系统效能。利用这项技术,将数据切割成许多区段,分别存放在各个硬盘上。
磁盘阵列还能利用同位检查(Parity Check)的观念,在数组中任意一个硬盘故障时,仍可读出数据,在数据重构时,将数据经计算后重新置入新硬盘中

一:服务器硬件

常见的服务器硬件有:cpu,内存,网卡,硬盘,远程管理口,阵列卡,电源,主板
cpu一般是双芯的,即安装两个cpu

内存:支持内存容量很高,基本上都在4TB

硬盘:通常都会对硬盘做raid,来保证数据的高效传输和数据安全可靠

二:RAID磁盘阵列详解

1)RAID磁盘阵列介绍

  • RAID是英文Redundant Array of Independent Disks的缩写,中文简称为独立冗余磁盘阵列
  • RAID是吧多块独立的物理硬盘按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能额和提供数据备份技术
  • 组成磁盘阵列的不同方式称为RAID级别(RAID Levels),常用的RAID级别有以下几种:RAID0,RAID1,RAID5,RAID6,RAID1+0等

2) RAID 0磁盘阵列介绍

  • RAID 0连续以位或字节为单位分个数据,并行同时读/写于多个磁盘上,因此具有很高的数据传输率,但他没有数据冗余(即没有备份),因此并不能算是真正的RAID结构

  • RAID 0只是单纯地提高性能,并没有为数据的可靠性提供保证,可靠性低而且其中的一个磁盘失效将影响到所有数据

  • RAID 0不能应用于数据安全性要求高的场合,常应用于多读写的场景

  • RAID 0 在windows中叫做带区卷(linux叫条带券),

    容量总和是两个磁盘相加

理论+实验 服务器硬件即RAID配置实战

3)RAID 1磁盘阵列介绍

  • 通过磁盘数据镜像实现数据冗余(即备份),在成堆的独立磁盘上产生互为备份的数据
  • 在原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能;写入速度不变,容量只有磁盘(偶数)总容量的二分之一,因此成本最高,另外一半用来备份数据,可靠性高
  • RAID 1是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据

理论+实验 服务器硬件即RAID配置实战

4)RAID 5磁盘阵列介绍

  • N(N>=3)块盘组成阵列,一份数据产生N-1个条带,同时还有一份校验数据,共N份数据在N块盘上循环均衡存储
  • N块盘同时读写,读性能很高,但由于有校验机制的问题,即校验数据的存在,写性能相对不高
  • 容量为(N-1)/N*总磁盘容量
  • 可靠性高,允许坏1块盘,不影响所有数据,把坏的磁盘换下来,可以利用校验数据来恢复丢失数据

理论+实验 服务器硬件即RAID配置实战

5)RAID 6磁盘阵列介绍

  • N(N>=4)块盘组成阵列,容量为(N-2)/N*磁盘总容量
  • 与RAID 5相比,RAID 6增加了第二个独立的奇偶校验信息块。两个独立的奇偶系统使用不同的算法(相当于二元一次方程),即时两块磁盘同时失效也不会影响数据的使用
  • 相对于RAID 5有更大的写损失,因此写性能相对较差
  • 线网上面用RAID 6 的比较多

理论+实验 服务器硬件即RAID配置实战

6) RAID 1+0磁盘阵列介绍

  • N(偶数,N>=4)块盘两两镜像后,再组合成一个RAID 0

  • 容量为N/2容量
  • N/2块盘同时写入,N块盘同时读取
  • 性能高,可靠性高
  • 也是线网中常用的一种磁盘阵列

理论+实验 服务器硬件即RAID配置实战

三:RAID阵列卡介绍

3.1阵列卡

阵列卡就是用来实现RAID功能的板卡,通常是由I/O(imput输入/output输出)处理器、硬盘控制器、硬盘连接器和缓存等一系列零组件构成的

不同的RAID卡支持的RAID功能不同,例如支持RAID0、RAID1、RAID5、RAID10等

RAID卡的接口类型

IDE接口、SCSI接口、SATA接口和SAS接口

3.2 阵列卡的缓存

缓存(Csche)是RAID卡与外部总线交换数据的场所,RAID卡先将数据传送到缓存,在由缓存和外边数据总线交换数据

缓存的大小与速度是直接关系到RAID卡的实际传输速度的重要因素

不同的RAID卡出厂时配备的内存容量不同,一半为几兆到数百兆容量不等

四:构建软RAID磁盘阵列

案例:构建软RAID磁盘阵列

需求描述:

  • 为Linux服务器添加4块SCSI硬盘
  • 使用mdadm软件包,构建RAID磁盘阵列,提高磁盘存储的性能和可靠性

思路:

  • 安装mdadm
  • 准备用于RAID阵列的分区
    • 为Linux服务器添加4块SCSI硬盘,并使用fdisk工具各划分出一块2GB的分区,依次为/dev/sdb1、/dev/sdc1、/dev/sdd1、/dev/sde1
    • 将其类型ID更改为“fd'”,对应为“Linux raid autodetect” ,表示支持用于RAID磁盘阵列
  • 创建RAID设备并建立文件系统
  • 挂载并使用文件系统
[root@localhost ~]# rpm -q mdadm    查看madadam工具是否已安装
mdadm-4.0-5.el7.x86_64  显示安装

接下来开始配置硬盘

理论+实验 服务器硬件即RAID配置实战

当前磁盘情况

[root@localhost ~]# fdisk -l    查看所有磁盘信息

磁盘 /dev/sda:42.9 GB, 42949672960 字节,83886080 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
磁盘标签类型:dos
磁盘标识符:0x000a55e9

   设备 Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048    12584959     6291456   83  Linux
/dev/sda2        12584960    79710207    33562624   8e  Linux LVM

磁盘 /dev/mapper/centos-root:21.5 GB, 21474836480 字节,41943040 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

磁盘 /dev/mapper/centos-swap:2147 MB, 2147483648 字节,4194304 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

磁盘 /dev/mapper/centos-home:10.7 GB, 10737418240 字节,20971520 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
[root@localhost ~]# init 6  重启系统
[root@localhost ~]# fdisk -l    重新查看所有磁盘信息,发现新增的四块磁盘

磁盘 /dev/sdb:21.5 GB, 21474836480 字节,41943040 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

磁盘 /dev/sdc:21.5 GB, 21474836480 字节,41943040 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

磁盘 /dev/sdd:21.5 GB, 21474836480 字节,41943040 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

磁盘 /dev/sde:21.5 GB, 21474836480 字节,41943040 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

开始依次给每块磁盘进行分区

[root@localhost ~]# fdisk /dev/sdb  创建分区,
欢迎使用 fdisk (util-linux 2.23.2)。

更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。

Device does not contain a recognized partition table
使用磁盘标识符 0x2ed1de1d 创建新的 DOS 磁盘标签。

命令(输入 m 获取帮助):n
Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): 
Using default response p
分区号 (1-4,默认 1):
起始 扇区 (2048-41943039,默认为 2048):
将使用默认值 2048
Last 扇区, +扇区 or +size{K,M,G} (2048-41943039,默认为 41943039):
将使用默认值 41943039
分区 1 已设置为 Linux 类型,大小设为 20 GiB

命令(输入 m 获取帮助):t
已选择分区 1
Hex 代码(输入 L 列出所有代码):l

 0  空              24  NEC DOS         81  Minix / 旧 Linu bf  Solaris        
 1  FAT12           27  隐藏的 NTFS Win 82  Linux 交换 / So c1  DRDOS/sec (FAT-
 2  XENIX root      39  Plan 9          83  Linux           c4  DRDOS/sec (FAT-
 3  XENIX usr       3c  PartitionMagic  84  OS/2 隐藏的 C:  c6  DRDOS/sec (FAT-
 4  FAT16 <32M      40  Venix 80286     85  Linux 扩展      c7  Syrinx         
 5  扩展            41  PPC PReP Boot   86  NTFS 卷集       da  非文件系统数据 
 6  FAT16           42  SFS             87  NTFS 卷集       db  CP/M / CTOS / .
 7  HPFS/NTFS/exFAT 4d  QNX4.x          88  Linux 纯文本    de  Dell 工具      
 8  AIX             4e  QNX4.x 第2部分  8e  Linux LVM       df  BootIt         
 9  AIX 可启动      4f  QNX4.x 第3部分  93  Amoeba          e1  DOS 访问       
 a  OS/2 启动管理器 50  OnTrack DM      94  Amoeba BBT      e3  DOS R/O        
 b  W95 FAT32       51  OnTrack DM6 Aux 9f  BSD/OS          e4  SpeedStor      
 c  W95 FAT32 (LBA) 52  CP/M            a0  IBM Thinkpad 休 eb  BeOS fs        
 e  W95 FAT16 (LBA) 53  OnTrack DM6 Aux a5  FreeBSD         ee  GPT            
 f  W95 扩展 (LBA)  54  OnTrackDM6      a6  OpenBSD         ef  EFI (FAT-12/16/
10  OPUS            55  EZ-Drive        a7  NeXTSTEP        f0  Linux/PA-RISC  
11  隐藏的 FAT12    56  Golden Bow      a8  Darwin UFS      f1  SpeedStor      
12  Compaq 诊断     5c  Priam Edisk     a9  NetBSD          f4  SpeedStor      
14  隐藏的 FAT16 <3 61  SpeedStor       ab  Darwin 启动     f2  DOS 次要       
16  隐藏的 FAT16    63  GNU HURD or Sys af  HFS / HFS+      fb  VMware VMFS    
17  隐藏的 HPFS/NTF 64  Novell Netware  b7  BSDI fs         fc  VMware VMKCORE 
18  AST 智能睡眠    65  Novell Netware  b8  BSDI swap       fd  Linux raid 自动
1b  隐藏的 W95 FAT3 70  DiskSecure 多启 bb  Boot Wizard 隐  fe  LANstep        
1c  隐藏的 W95 FAT3 75  PC/IX           be  Solaris 启动    ff  BBT            
1e  隐藏的 W95 FAT1 80  旧 Minix       
Hex 代码(输入 L 列出所有代码):fd
已将分区“Linux”的类型更改为“Linux raid autodetect”

命令(输入 m 获取帮助):p

磁盘 /dev/sdb:21.5 GB, 21474836480 字节,41943040 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
磁盘标签类型:dos
磁盘标识符:0x2ed1de1d

   设备 Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048    41943039    20970496   fd  Linux raid autodetect

命令(输入 m 获取帮助):w
The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盘。

用fdisk /dev/sdc,fidsk /dev/sdd,fdisk /dev/sde命令去配置另外三块磁盘,

   设备 Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    41943039    20970496   fd  Linux raid autodetect

   设备 Boot      Start         End      Blocks   Id  System
/dev/sdd1            2048    41943039    20970496   fd  Linux raid autodetect
   设备 Boot      Start         End      Blocks   Id  System
/dev/sde1            2048    41943039    20970496   fd  Linux raid autodetect

接下来就可以以这四块磁盘为素材,去配置raid,先配置个raid

可以先试一下raid0条带卷,也叫做跨区卷

[root@localhost ~]# mdadm -C -v /dev/md0 -l0 -n2 /dev/sd[b-c]1  
#/dev/md0就是raid0名字,-C 创建,-v显示过程 -l确定raid等级,-n确定几块盘,
还有一个备用选项-x
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -D /dev/md0   #mdadm -D 显示raid信息
/dev/md0:
           Version : 1.2
     Creation Time : Mon Nov  4 12:49:59 2019
        Raid Level : raid0
        Array Size : 41908224 (39.97 GiB 42.91 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 12:49:59 2019
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

        Chunk Size : 512K

Consistency Policy : none

              Name : localhost.localdomain:0  (local to host localhost.localdomain)
              UUID : d531230c:c4e71b72:00f695a1:f9ce404c
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
 [root@localhost ~]# cat /proc/mdstat   #还可以从/proc硬件信息目录中查看
 raid对应的文件/proc/mdstat
Personalities : [raid0] 
md0 : active raid0 sdc1[1] sdb1[0]
      41908224 blocks super 1.2 512k chunks

raid0 卷制作完毕,接下来格式化之后就可以挂载使用

[root@localhost ~]# mkfs.xfs /dev/md0   #格式化/dev/md0
meta-data=/dev/md0               isize=512    agcount=16, agsize=654720 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=10475520, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=5120, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost ~]# mkdir /md0  #创建挂载点目录
[root@localhost ~]# mount /dev/md0 /md0     #挂载
[root@localhost ~]# df -Th  #查看
文件系统                类型      容量  已用  可用 已用% 挂载点
/dev/mapper/centos-root xfs        20G  3.3G   17G   17% /
devtmpfs                devtmpfs  977M     0  977M    0% /dev
tmpfs                   tmpfs     993M     0  993M    0% /dev/shm
tmpfs                   tmpfs     993M  9.0M  984M    1% /run
tmpfs                   tmpfs     993M     0  993M    0% /sys/fs/cgroup
/dev/sda1               xfs       6.0G  161M  5.9G    3% /boot
/dev/mapper/centos-home xfs        10G   50M   10G    1% /home
tmpfs                   tmpfs     199M   12K  199M    1% /run/user/42
tmpfs                   tmpfs     199M     0  199M    0% /run/user/0
/dev/md0                xfs        40G   33M   40G    1% /md0   #已挂载

接下来取消挂载,停止md0

[root@localhost dev]# umount /md0
[root@localhost dev]# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
[root@localhost dev]# cat /proc/mdstat
Personalities : [raid0] 
unused devices: 
[root@localhost dev]# ls    查看发现没有md0
agpgart          log                 sdc       tty18  tty45   urandom
autofs           loop-control        sdc1      tty19  tty46   usbmon0
block            lp0                 sdd       tty2   tty47   usbmon1
bsg              lp1                 sdd1      tty20  tty48   usbmon2
btrfs-control    lp2                 sde       tty21  tty49   vcs
bus              lp3                 sde1      tty22  tty5    vcs1
cdrom            mapper              sg0       tty23  tty50   vcs2
centos           mcelog              sg1       tty24  tty51   vcs3
char             mem                 sg2       tty25  tty52   vcs4
console          mqueue              sg3       tty26  tty53   vcs5
core             net                 sg4       tty27  tty54   vcs6
cpu              network_latency     sg5       tty28  tty55   vcsa
cpu_dma_latency  network_throughput  shm       tty29  tty56   vcsa1
crash            null                snapshot  tty3   tty57   vcsa2
disk             nvram               snd       tty30  tty58   vcsa3
dm-0             oldmem              sr0       tty31  tty59   vcsa4
dm-1             port                stderr    tty32  tty6    vcsa5
dm-2             ppp                 stdin     tty33  tty60   vcsa6
dri              ptmx                stdout    tty34  tty61   vfio
fb0              pts                 tty       tty35  tty62   vga_arbiter
fd               random              tty0      tty36  tty63   vhci
full             raw                 tty1      tty37  tty7    vhost-net
fuse             rfkill              tty10     tty38  tty8    vmci
hidraw0          rtc                 tty11     tty39  tty9    vsock
hpet             rtc0                tty12     tty4   ttyS0   zero
hugepages        sda                 tty13     tty40  ttyS1
hwrng            sda1                tty14     tty41  ttyS2
initctl          sda2                tty15     tty42  ttyS3
input            sdb                 tty16     tty43  uhid
kmsg             sdb1                tty17     tty44  uinput

开始制作raid1,rai1d俗称镜像卷

[root@localhost dev]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[b-c]1    
#-C创建 -v显示详细过程 要创建的raid名称   -l raid等级 -n磁盘个数 磁盘名称
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid0 devices=2 ctime=Mon Nov  4 12:49:59 2019
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdc1 appears to be part of a raid array:
       level=raid0 devices=2 ctime=Mon Nov  4 12:49:59 2019
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@localhost dev]# cat /proc/mdstat  查看mdstat状态
Personalities : [raid0] [raid1] 
md1 : active raid1 sdc1[1] sdb1[0]
      20954112 blocks super 1.2 [2/2] [UU]
      [=====>...............]  resync = 26.7% (5601408/20954112)    finish=1.2min speed=207459K/sec     #正在同步

unused devices: 
[root@localhost dev]# mdadm -D /dev/md1     #查看详细信息
/dev/md1:
           Version : 1.2
     Creation Time : Mon Nov  4 13:41:55 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 13:43:39 2019
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : d873e511:0bb8274c:97a98d9f:76313fc8
            Events : 17

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
[root@localhost dev]# mkfs.xfs /dev/md1     #格式化/dev/md1
mkfs.xfs: /dev/md1 appears to contain an existing filesystem (xfs).
mkfs.xfs: Use the -f option to force overwrite.     
#反馈说md1中存在xfs系统,是否要强行执行-f格式化,原因自己分析一波,我就不解释了
[root@localhost dev]# mkfs.xfs -f /dev/md1  #强制执行
meta-data=/dev/md1               isize=512    agcount=4, agsize=1309632 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=5238528, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost dev]# mount /dev/md1 /md0   #挂载到之前设置的挂载点/md0
[root@localhost dev]# df -Th
文件系统                类型      容量  已用  可用 已用% 挂载点
/dev/mapper/centos-root xfs        20G  3.3G   17G   17% /
devtmpfs                devtmpfs  977M     0  977M    0% /dev
tmpfs                   tmpfs     993M     0  993M    0% /dev/shm
tmpfs                   tmpfs     993M  9.0M  984M    1% /run
tmpfs                   tmpfs     993M     0  993M    0% /sys/fs/cgroup
/dev/sda1               xfs       6.0G  161M  5.9G    3% /boot
/dev/mapper/centos-home xfs        10G   50M   10G    1% /home
tmpfs                   tmpfs     199M   12K  199M    1% /run/user/42
tmpfs                   tmpfs     199M     0  199M    0% /run/user/0
/dev/md1                xfs        20G   33M   20G    1% /md0

还有-x 指定备用磁盘,这里操作演示一波

[root@localhost dev]# umount /md0   取消挂载
[root@localhost dev]# mdadm -S /dev/md1     停止raid1
mdadm: stopped /dev/md1
[root@localhost dev]# mdadm -C /dev/md2 -l1 -n2 /dev/sd[d-e]1 -x1 /dev/sdb1
#重新创建一个raid1,-x1,指定一块备用磁盘
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 13:41:55 2019
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md2 started.
[root@localhost dev]# cat /proc/mdstat  #查看信息状态
Personalities : [raid0] [raid1] 
md2 : active raid1 sdb1[2](S) sde1[1] sdd1[0]
      20954112 blocks super 1.2 [2/2] [UU]
      [====>................]  resync = 21.0% (4400896/20954112) finish=1.3min speed=209566K/sec

unused devices: 
[root@localhost dev]# mdadm -D /dev/md2     #第二种方法查看
/dev/md2:
           Version : 1.2
     Creation Time : Mon Nov  4 14:27:51 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 14:28:49 2019
             State : clean, resyncing 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

Consistency Policy : resync

     Resync Status : 56% complete

              Name : localhost.localdomain:2  (local to host localhost.localdomain)
              UUID : 774b6bee:46ab3939:243f63b7:fdc1d58d
            Events : 9

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1

       2       8       17        -      spare   /dev/sdb1   #这一块就是备用盘

用mdadm中的-f去模拟演示毁掉一块盘

[root@localhost dev]# mdadm -f /dev/md2 /dev/sdd1   毁掉md2中的sdd1
mdadm: set /dev/sdd1 faulty in /dev/md2
[root@localhost dev]# mdadm -D /dev/md2
/dev/md2:
           Version : 1.2
     Creation Time : Mon Nov  4 14:27:51 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 14:30:11 2019
             State : clean, degraded, recovering 
    Active Devices : 1
   Working Devices : 2
    Failed Devices : 1
     Spare Devices : 1

Consistency Policy : resync

    Rebuild Status : 15% complete

              Name : localhost.localdomain:2  (local to host localhost.localdomain)
              UUID : 774b6bee:46ab3939:243f63b7:fdc1d58d
            Events : 21

    Number   Major   Minor   RaidDevice State
       2       8       17        0      spare rebuilding   /dev/sdb1    #被顶替上去
       1       8       65        1      active sync   /dev/sde1

       0       8       49        -      faulty   /dev/sdd1  #被换下来

再实验一个raid5,从案例的需求可以发现,可以为其配置raid6,或者raid1+0,这里还是先顺序把raid5演练一波

[root@localhost dev]# mdadm -S /dev/md2     #停止md2
mdadm: stopped /dev/md2
[root@localhost dev]# mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[b-d]1 -x1    /dev/sde1 
#-C创建 -v显示详细过程 raid名称 -l raid等级 -n 组成raid磁盘个数 组成raid的磁盘名称 
-x 备用磁盘
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 14:27:51 2019
mdadm: /dev/sdc1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 13:41:55 2019
mdadm: /dev/sdd1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 14:27:51 2019
mdadm: /dev/sde1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 14:27:51 2019
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@localhost dev]# mdadm -D /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Mon Nov  4 14:57:07 2019
        Raid Level : raid5
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 14:58:53 2019
             State : clean 
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost.localdomain:5  (local to host localhost.localdomain)
              UUID : 6057b886:24586340:b6ece802:6f3904d6
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       4       8       49        2      active sync   /dev/sdd1

       3       8       65        -      spare   /dev/sde1

-x备用了一块磁盘,这里搞坏一个盘试一试

[root@localhost dev]# mdadm -f /dev/md5 /dev/sdd1   #搞坏md5下面的sdd1
mdadm: set /dev/sdd1 faulty in /dev/md5     #显示成功搞坏
[root@localhost dev]# mdadm -D /dev/md5     #再次查看信息
/dev/md5:
           Version : 1.2
     Creation Time : Mon Nov  4 14:57:07 2019
        Raid Level : raid5
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 15:04:50 2019
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 1
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

    Rebuild Status : 25% complete

              Name : localhost.localdomain:5  (local to host localhost.localdomain)
              UUID : 6057b886:24586340:b6ece802:6f3904d6
            Events : 24

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       3       8       65        2      spare rebuilding   /dev/sde1    #顶替上来

       4       8       49        -      faulty   /dev/sdd1  #换下来

然后的操作就是格式化,mkfs.xfs /dev/md5,挂载,这里就不再操作了

raid6就是把其中的级别-l改为6,磁盘块数-n不少于四块,备用盘-x记得给,养成好习惯,在演示一波raid1+0

raid1+0的原理是先用两块盘去做raid1镜像卷,然后把两个raid1为单位,去做raid0条带卷

[root@localhost dev]# mdadm -S /dev/md5     #停用md5
mdadm: stopped /dev/md5
[root@localhost dev]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[b-c]1    #创建raid1 md1
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Mon Nov  4 14:57:07 2019
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdc1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Mon Nov  4 14:57:07 2019
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@localhost dev]# mdadm -C -v /dev/md2 -l1 -n2 /dev/sd[d-e]1    #创建riad1 md2
mdadm: /dev/sdd1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Mon Nov  4 14:57:07 2019
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sde1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Mon Nov  4 14:57:07 2019
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md2 started.
[root@localhost dev]# mdadm -C -v /dev/md0 -l0 -n2 /dev/md[1-2] #以两个镜像卷为
单位,创建raid0
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost dev]# mdadm -D /dev/md0 #查看raid0卷md0
/dev/md0:
           Version : 1.2
     Creation Time : Mon Nov  4 15:19:28 2019
        Raid Level : raid0
        Array Size : 41875456 (39.94 GiB 42.88 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 15:19:28 2019
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

        Chunk Size : 512K

Consistency Policy : none

              Name : localhost.localdomain:0  (local to host localhost.localdomain)
              UUID : e0b393ab:3c8c8d1c:21ddf9f1:26ab1901
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       9        1        0      active sync   /dev/md1  #单位是镜像卷
       1       9        2        1      active sync   /dev/md2
[root@localhost dev]# mdadm -D /dev/md1 #查看raid1卷md1
/dev/md1:
           Version : 1.2
     Creation Time : Mon Nov  4 15:18:02 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 15:19:47 2019
             State : active 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : 8ece5682:dc5b03c7:5d1d67a8:22c85b59
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1 #单位是sd
       1       8       33        1      active sync   /dev/sdc1
[root@localhost dev]# mdadm -D /dev/md2
/dev/md2:
           Version : 1.2
     Creation Time : Mon Nov  4 15:18:43 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 15:20:02 2019
             State : active, resyncing 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

     Resync Status : 79% complete

              Name : localhost.localdomain:2  (local to host localhost.localdomain)
              UUID : 9501fa59:f37e90a0:227aaf3f:567026a1
            Events : 13

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
[root@localhost dev]# mount /dev/md1 /md0   #挂载raid1镜像卷
mount: 未知的文件系统类型“linux_raid_member” #没有格式化
[root@localhost dev]# mount /dev/md0 /md0   #挂载raid0条带卷
mount: /dev/md0 写保护,将以只读方式挂载    #可以挂,但是没啥用,只读,写保护
mount: 未知的文件系统类型“(null)”
[root@localhost dev]# mkfs.xfs /dev/md0     #格式化条带卷raid0
meta-data=/dev/md0               isize=512    agcount=16, agsize=654208 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=10467328, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=5112, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost dev]# mount /dev/md0 /md0   #再次挂载raid0,可以正常挂上去
[root@localhost dev]# mkfs.xfs /dev/md1     #格式化镜像卷raid1,发现资源忙
mkfs.xfs: cannot open /dev/md1: 设备或资源忙  #这是因为镜像卷成为raid0的单位,
无法执行独立的操作
[root@localhost dev]# df -TH    #查看一下
文件系统                类型      容量  已用  可用 已用% 挂载点
/dev/mapper/centos-root xfs        22G  3.5G   18G   17% /
devtmpfs                devtmpfs  1.1G     0  1.1G    0% /dev
tmpfs                   tmpfs     1.1G     0  1.1G    0% /dev/shm
tmpfs                   tmpfs     1.1G  9.5M  1.1G    1% /run
tmpfs                   tmpfs     1.1G     0  1.1G    0% /sys/fs/cgroup
/dev/sda1               xfs       6.5G  168M  6.3G    3% /boot
/dev/mapper/centos-home xfs        11G   52M   11G    1% /home
tmpfs                   tmpfs     209M   13k  209M    1% /run/user/42
tmpfs                   tmpfs     209M     0  209M    0% /run/user/0
/dev/md0                xfs        43G   35M   43G    1% /md0   #挂载成功

总结:

  • raid0是两块磁盘,同时读写,速度比一般的快一倍,但是没有进行备份数据的操作,所以在数据安全性的层面上跟一般的一样,容量是所有磁盘容量的总和
  • raid1是两块磁盘,同时往里写一样的数据,速度跟一般的一致,安全方面,多了一块磁盘,就多了一份保障,容量是磁盘总容量的一半
  • raid5最少三块磁盘,分别往里读写,在原有数据的基础上,还多了一份数据校验记录,这一份数据校验记录跟原有数据平均均分在各个磁盘内,相当于可以损坏一块磁盘,把坏磁盘换下来,数据校验记录可以恢复坏磁盘的数据,安全性比一般的多了一层保障,读写速度是一般的(N-1)倍,容量是磁盘总容量的(N-1)N
  • raid6最少四块磁盘,相当于在raid5的基础上再加一个数据校验记录,这样就可以同时损坏两块盘而不影响数据完整,安全性比一般的多了两层保障,读写速度是一般的(N-2)被,容量是磁盘总容量的(N-2)/N
  • raid1+0是raid1和raid0的集合,相当于对数据先进行已经raid1的封装,然后在进行raid0的封装,应用也是比较广

当前文章:理论+实验服务器硬件即RAID配置实战
网站链接:http://azwzsj.com/article/jjsshd.html