Home » Админам, Рекомендуем » Добавление нового диска в массив RAID 1
Янв
16

В предыдущем посте, писал как удалить проблемный том, здесь описываю как теперь добавить новый, на место старого.

 

Приступим.

Копируем таблиц томов с рабочего диска, на новый(в данной статье sda - рабочий, sdc - новый диск)

sfdisk -d /dev/sda | sfdisk /dev/sdс

Смотрим fdisk -l, должно быть примерно так(второй диск по-состоянию таблиц стает клоном - быть должно именно так, если нет, возможно надо приступить к первоначальной настройке):

[root@ ~]# fdisk -l

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   fd  Linux raid autodetect
/dev/sda2              26        1330    10482412+  fd  Linux raid autodetect
/dev/sda3            1331        1591     2096482+  fd  Linux raid autodetect
/dev/sda4            1592       60801   475604325    5  Extended
/dev/sda5            1592       60801   475604293+  fd  Linux raid autodetect

Disk /dev/sdc: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot      Start         End      Blocks   Id  System
/dev/sdc1   *           1          25      200781   fd  Linux raid autodetect
/dev/sdc2              26        1330    10482412+  fd  Linux raid autodetect
/dev/sdc3            1331        1591     2096482+  fd  Linux raid autodetect
/dev/sdc4            1592       60801   475604325    5  Extended
/dev/sdc5            1592       60801   475604293+  fd  Linux raid autodetect

Далее, очищаем все предыдущие данные с диска(если они были - подстраховка, шаг ОБЯЗАТЕЛЕН):

mdadm --zero-superblock /dev/sdc1
mdadm --zero-superblock /dev/sdc2
mdadm --zero-superblock /dev/sdc3
mdadm --zero-superblock /dev/sdc4
mdadm --zero-superblock /dev/sdc5

Во время шага могут возникать ошибки типа:

mdadm: Unrecognised md component device - /dev/sdс1 - это нормально, не обращаем внимание(могут и не возникнуть)

Следующий шаг:

повторно создаем файл mdam.conf

mdadm --examine --scan > /etc/mdadm.conf

Смотрим, как до этого у нас настроен был RAID:

[root@~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1  sda1[0]
200704 blocks [2/2] [UU]

md2 : active raid1  sda3[0]
2096384 blocks [2/2] [UU]

md3 : active raid1  sda5[0]
475604224 blocks [2/1] [U_]

md1 : active raid1 sda2[0]
10482304 blocks [2/1] [U_]
resync=DELAYED

unused devices: <none>

По-аналогии добавляем новые разделы в рейд, например, если у нас sda1 в md0, то sdc1 соответственно туда надо добавлять, sdc3 в md2 и так далее:

mdadm --add /dev/md0 /dev/sdс1
mdadm --add /dev/md1 /dev/sdс2
mdadm --add /dev/md2 /dev/sdс3
mdadm --add /dev/md3 /dev/sda5

Ждем синхронизации, например, можно смотреть статус в реальном времени:

[root@~]# watch cat /proc/mdstat
Every 2.0s: cat /proc/mdstat                                                                                                                    Mon Jan 16 18:35:26 2012

Personalities : [raid1]
md0 : active raid1 sdc1[1] sda1[0]
200704 blocks [2/2] [UU]

md2 : active raid1 sdc3[1] sda3[0]
2096384 blocks [2/2] [UU]

md3 : active raid1 sdc5[2] sda5[0]
475604224 blocks [2/1] [U_]
[=====>...............]  recovery = 25.6% (121884736/475604224) finish=164.8min speed=35754K/sec

md1 : active raid1 sdc2[2] sda2[0]
10482304 blocks [2/1] [U_]
resync=DELAYED

unused devices: <none>

Строим новую ситуацию дисков:

mdadm --examine --scan > /etc/mdadm.conf

Просмотр, того что вышло:

cat /etc/mdadm.conf

 

Также в grub надо добавить новый диск:

root (hd0,0)
setup (hd0)
root (hd1,0)
setup (hd1)
quit

 

Все, после завершения синхронизации живете дальше спокойной жизнью 🙂

, ,

Comments are closed.