Resolución de problemas RAID1 en Linux usando mdadm

publicado por Carlos Torres el 13/05/2011 10:40

En ocasiones el RAID1 por software se degrada, este es un ejemplo de un raid software degradado:

# mdadm --query --detail /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Sat Feb 6 06:41:35 2010
Raid Level : raid1
Array Size : 10485696 (10.00 GiB 10.74 GB)
Used Dev Size : 10485696 (10.00 GiB 10.74 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 1
Persistence : Superblock is persistent

Update Time : Wed May 11 13:07:39 2011
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

UUID : c8c59155:37c5de10:a4d2adc2:26fd5302
Events : 0.6628193

Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 0 0 1 removed

Vemos que el dispositivo 1 está eliminado del RAID, correspondería  a la partición /dev/sdb1

Podríamos añadirlo, siempre que el disco físico esté bien, con:

# mdadm --add /dev/md1 /dev/sdb1

Si es imposible añadirlo, muy probablemente el disco esté roto o dañado. Comprobar si el sistema lo detecta y existe el dispositivo /dev/sdb1. Si no existe, hay que reemplazar el disco (en este caso el segundo).

Este sería un ejemplo de un RAID1 funcionando correctamente:

# mdadm --query --detail /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Wed May 11 20:51:50 2011
Raid Level : raid1
Array Size : 20478912 (19.53 GiB 20.97 GB)
Used Dev Size : 20478912 (19.53 GiB 20.97 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent

Update Time : Fri May 13 10:49:37 2011
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

UUID : ddd55827:6feafc33:a4d2adc2:26fd5302
Events : 0.1

Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1

Si tenemos uno de los discos en recostrucción, podemos ver lo siguiente:

$ mdadm --query --detail /dev/md1
Version : 00.90
Creation Time : Wed May 11 20:51:50 2011
Raid Level : raid1
Array Size : 20478912 (19.53 GiB 20.97 GB)
Used Dev Size : 20478912 (19.53 GiB 20.97 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent

Update Time : Wed Aug 31 15:04:27 2011
State : clean, degraded, recovering
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1

Rebuild Status : 15% complete

UUID : ddd55827:6feafc33:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
Events : 0.947676

Number Major Minor RaidDevice State
2 8 1 0 spare rebuilding /dev/sda1
1 8 17 1 active sync /dev/sdb1

Podemos ver el estado de la reconstrucción:

$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sda1[2] sdb1[1]
20478912 blocks [2/1] [_U]
[===>.................] recovery = 15.4% (3160256/20478912) finish=878.3min speed=328K/sec

md2 : active raid1 sda2[2] sdb2[1]
467378112 blocks [2/1] [_U]
resync=DELAYED

 En este caso va por el 14%  y existe un segundo array (md2) que necesita reconstruirse.

 


Comentarios:

31/08/2015 23:29 por proskueno
Gracias por tu aporte, me ayudo bastante. Saludos!!

Añadir un comentario:

Nombre:

E-Mail:

Comentario: :

Enviar >>