RAID disparu dans la nuit!

Tags: #<Tag:0x00007f50a0092a98>

Bonjour à tous,
J’ai galéré mais enfin arrivé à mes fins pour la construction de mon serveur, qui tourne maintenant depuis plusieurs années.
Je suis sous Debian GNU/linux 11
Hier soir, j’ai arrêté le serveur proprement, comme d’habitude, mais ce matin au redémarrage…plus rien !
Les disques sont tous présents mais plus aucune partition du raid 5.
Voici le screenshot du démarrage et de la cde lsblk

20240107_190227

Je suppose qu’il ne s’agit, du moins je l’espère, que d’un fichier corrompu mais j’avoue ne pas savoir où chercher !

Le RAID md0 était auparavant sur les partitions sdb1, sdc1, sdd1 et sde1
Dans le répertoire /dev, il n’y a plus le /dev/md0
Le fichier fstab n’a pas bougé.

Je m’en remets à vos connaissances pour tenter de récupérer le RAID disparu.

Merci pour votre aide.

Commenter tous les montages supportés par l’ensemble RAID manquant dans /etc/fstab ou bien leur ajouter l’option « nofail ». Ça permettra de démarrer sans tomber dans le mode recovery et donc de se connecter au serveur par SSH afin de faire des copier-coller de texte au lieu de photos d’écran abusivment lourdes. 8 Mpixels de résolution pour quelques lignes de texte, ça devrait être interdit par le forum, tout le monde n’a pas la fibre ni un écran 4K.

Ensuite, les vérifications de base que tout utilisateur de RAID logiciel devrait connaître.

cat /proc/mdstat
cat /etc/mdadm/mdadm.conf
mdadm --examine --scan --verbose
mdadm --examine /dev/sd[acde]1 # adapter aux noms actuels des disques en RAID
mdadm --detail /dev/md*

Merci PascalHambourd pour ton retour, malgré ton agacement :wink:
Désolé pour la photo. :pensive:

J’ai donc maintenant accès en SSH grâce au « nofail » !

Voici ce que donne les cdes:

cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>

cat /etc/mdadm/mdadm.conf

# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md/0  metadata=1.2 UUID=6f03be00:1bc6f3f8:00be90d5:bb36b52e name=armaniserver:0

# This configuration was auto-generated on Mon, 30 Oct 2023 13:27:02 +0100 by mkconf
ARRAY /dev/md/0  metadata=1.2 UUID=6f03be00:1bc6f3f8:00be90d5:bb36b52e name=armaniserver:0

mdadm --examine --scan --verbose

ARRAY /dev/md/0  level=raid5 metadata=1.2 num-devices=5 UUID=6f03be00:1bc6f3f8:00be90d5:bb36b52e name=armaniserver:0
   devices=/dev/sdb1,/dev/sdc1,/dev/sde1,/dev/sdd1

mdadm --examine /dev/sd[bcde]1

/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6f03be00:1bc6f3f8:00be90d5:bb36b52e
           Name : armaniserver:0  (local to host armaniserver)
  Creation Time : Fri Oct 21 05:41:37 2022
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 7813774991 (3725.90 GiB 4000.65 GB)
     Array Size : 11718217728 (11175.36 GiB 11999.45 GB)
  Used Dev Size : 5859108864 (2793.84 GiB 2999.86 GB)
    Data Offset : 260096 sectors
   Super Offset : 8 sectors
   Unused Space : before=260016 sectors, after=1954666127 sectors
          State : clean
    Device UUID : c933de3e:af41990f:9f9beb8b:8211a920

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Jan  6 22:38:32 2024
  Bad Block Log : 512 entries available at offset 24 sectors
       Checksum : 483a0965 - correct
         Events : 49761

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6f03be00:1bc6f3f8:00be90d5:bb36b52e
           Name : armaniserver:0  (local to host armaniserver)
  Creation Time : Fri Oct 21 05:41:37 2022
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 5859112960 (2793.84 GiB 2999.87 GB)
     Array Size : 11718217728 (11175.36 GiB 11999.45 GB)
  Used Dev Size : 5859108864 (2793.84 GiB 2999.86 GB)
    Data Offset : 260096 sectors
   Super Offset : 8 sectors
   Unused Space : before=260016 sectors, after=4096 sectors
          State : clean
    Device UUID : 41d47cca:70607f0f:3f251610:d63345ef

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Jan  6 22:38:32 2024
  Bad Block Log : 512 entries available at offset 24 sectors
       Checksum : b203adff - correct
         Events : 49761

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6f03be00:1bc6f3f8:00be90d5:bb36b52e
           Name : armaniserver:0  (local to host armaniserver)
  Creation Time : Fri Oct 21 05:41:37 2022
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 5859112960 (2793.84 GiB 2999.87 GB)
     Array Size : 11718217728 (11175.36 GiB 11999.45 GB)
  Used Dev Size : 5859108864 (2793.84 GiB 2999.86 GB)
    Data Offset : 260096 sectors
   Super Offset : 8 sectors
   Unused Space : before=260016 sectors, after=4096 sectors
          State : clean
    Device UUID : dad83f7f:50dd51b5:989e0478:f607da59

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Jan  6 22:38:32 2024
  Bad Block Log : 512 entries available at offset 24 sectors
       Checksum : df1c7d4a - correct
         Events : 49761

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAAA. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6f03be00:1bc6f3f8:00be90d5:bb36b52e
           Name : armaniserver:0  (local to host armaniserver)
  Creation Time : Fri Oct 21 05:41:37 2022
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 5859112960 (2793.84 GiB 2999.87 GB)
     Array Size : 11718217728 (11175.36 GiB 11999.45 GB)
  Used Dev Size : 5859108864 (2793.84 GiB 2999.86 GB)
    Data Offset : 260096 sectors
   Super Offset : 8 sectors
   Unused Space : before=260016 sectors, after=4096 sectors
          State : clean
    Device UUID : 74d16a0d:b4f1b611:c318a24a:f48df20d

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Jan  6 22:38:32 2024
  Bad Block Log : 512 entries available at offset 24 sectors
       Checksum : 50628a1a - correct
         Events : 49761

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAA. ('A' == active, '.' == missing, 'R' == replacing)

mdadm --detail /dev/md*

mdadm: cannot open /dev/md*: No such file or directory

mdadm --detail /dev/md0

mdadm: cannot open /dev/md0: No such file or directory

mdadm --detail /dev/md/0

mdadm: cannot open /dev/md/0: No such file or directory

Les disques semblent sains.

D’après les informations l’ensemble RAID devrait avoir 5 membres et il n’y a que 4 membres actifs. Où est le cinquième ? Cependant l’ensemble devrait quand même pouvoir être démarré en mode dégradé, les 4 membres restant semblent synchro.

Un RAID qui disparaît dans la nuit, c’est un RAID Zorro ?

Au cas où ça intéresse qq’un, j’ai réussi à reconstruire le RAID sans aucune perte de donnée.
J’ai lancé la cde

mdadm --assemble --scan

Il me signale alors qu’il est impossible de le reconstruire car dans le fichier mdadm.conf , deux entités du RAID porte le même UUID.

#definitions of existing MD arrays
ARRAY /dev/md/0 metadata=1.2 UUID=6f03be00:1bc6f3f8:00be90d5:bb36b52e name=armaniserver:0

#This configuration was auto-generated on Mon, 30 Oct 2023 13:27:02 +0100 by mkconf
ARRAY /dev/md/0 metadata=1.2 UUID=6f03be00:1bc6f3f8:00be90d5:bb36b52e name=armaniserver:0

J’ai donc commenté la ligne générée automatiquement, retiré les ‹ nofail › dans le ‹ fstab › …et ça tourne !

A+
Zorro

Mais sur seulement 4 disques, donc sans aucune redondance.