Supprimer une mémoire swap en RAID

Pourquoi supprimer cette partition?

  1. Si tu as un raid logiciel, c’est une bonne idée de mettre le swap en raid plutôt qu’une sur chaque disque, en cas de défaillance d’un disque ton système reste sur (vécu)
  2. Tu peux avoir plusieurs partitions swap que tu ajoutes, il valait mieux rajouter une partition que supprimer celles existantes non?

Merci fran.b

je pense que la nouvelle partition swap est sur un VG en miroir (donc également en RAID1, si j’ai bien compris):

# pvdisplay 
  --- Physical volume ---
  PV Name               /dev/nvme0n1p3
  VG Name               VG0
  PV Size               3,58 TiB / not usable 2,00 MiB
  Allocatable           yes 
  PE Size               4,00 MiB
  Total PE              938519
  Free PE               422575
  Allocated PE          515944
  PV UUID               4efK8z-27e9-ibZu-MDsy-GunB-6JXp-4HDrVs
   
  "/dev/nvme1n1p3" is a new physical volume of "3,58 TiB"
  --- NEW Physical volume ---
  PV Name               /dev/nvme1n1p3
  VG Name               
  PV Size               3,58 TiB
  Allocatable           NO
  PE Size               0   
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               Nd403x-z2ml-P9T8-DeNY-H8mZ-zh2X-uXQArt
   
root@leopard:~# vgdisplay 
  --- Volume group ---
  VG Name               VG0
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  326
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                6
  Open LV               5
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               3,58 TiB
  PE Size               4,00 MiB
  Total PE              938519
  Alloc PE / Size       515944 / <1,97 TiB
  Free  PE / Size       422575 / 1,61 TiB
  VG UUID               v9SswB-FvlZ-kF6J-tb8o-nmg0-ZfRd-LZeOtq

Et l’idée était de supprimer la swap en RAID1 parce qu’elle est hors du VG LVM, et que la nouvelle semble bien assez grande. (Mais ce n’est pas impératif, je ne manque pas d’espace disque)

Oui il est préférable de mettre ton swap dans le VG. C’est plus facile à gérer et c’est plus propre coté disque ensuite.
Car poru faire évoluer un swap il faut

  • Arrêter le swap (swapoff -a)
  • Supprimer le swap
  • redéfinir le nouveau swap (lvcreate …)
  • Redemarrer le swap (swapon -a)

C’est d’autant plus évident quand on est en disque chiffrés.
Chez moi j’ai:
image

Le même avec du chiffrement de disque en LVM over LUKS:
image

donc, supprimer le SWAP -RAID initial- hors LVM serais préférable, d’autant plus que le nouveau SWAP en LVM-Miroir = raid1 est 124 Gi = 2 fois la mémoire vive, déjà grande = 64 Gi?

Je reviens alors à ma question initiale:comment supprimer cette partition double (raid)?

man mdadm ne me le dit pas, (au moins compte tenu de mon très faible niveau d’anglais et à peine moins faible niveau administration Linux.)

Si j’ai bien compris l’explication de ce wiki:
https://debian-facile.org/doc:install:supprimer-un-raid-logiciel

alors je peux/doit faire:

swapoff /dev/md0
mdadm -S /dev/md0
mdadm --zero-superblock   /dev/nvme0n1p2
mdadm --zero-superblock   /dev/nvme1n1p2
puis supprimer ces partitions avec gparted

Est-ce bien celà ?

Oui
l’erreur est d’avoir fait un raid juste pour le swap, il ne faut jamais faire ça.
Car en fait, il se trouve qu’il va fonctionner comme un RAID0.
C’est mieux de le mettre en LVM.

Pour supprimer le RAID de ton swap, donne nous un lsblk -f pour vérifier comment sont montées tes partitions.

Mais si on considère que /dev/md0 est monté en [SWAP], alors:

swapoff -a
umount /dev/md0   #tu démonte la partition de/sur ton /dev/md0
mdadm --stop /dev/md0   # tu arrête le raid sur le device

# Vérifies qu'"il n'y a rien dans /etc/mdadm/mdadm.conf, 
#sinon supprime ce qui concerne /dev/md0 dans /etc/mdadm/mdadm.conf

mdadm --remove /dev/md0

# Ensuite supprime les superblocks
mdadm --zero-superblock /dev/nvme0n1p2
mdadm --zero-superblock /dev/nvme1n1p2

La difficulté ensuite va être de récupérer l’espace ainsi libéré pour le rajouter dans ton volume physique LVM.

Pour voir ce que tu dois faire, il nous faut le lsblk -f d’abord (avant et après la suppression de ton raid swap).

Comment ça?

Merci Zargos,

(ici sda et sdb sont des disques externes : sauvegarde des données et timeshift)

$ lsblk -f
NAME           FSTYPE            FSVER    LABEL           UUID                                   FSAVAIL FSUSE% MOUNTPOINTS
sda                                                                                                             
└─sda1         ext4              1.0      Tosh2T_2024     3bed24e4-af9b-48de-9f79-de0c514bb040    415,7G    72% /media/eric/Tosh2T_2024
sdb                                                                                                             
└─sdb1         ext4              1.0      Tosh2Tbleu1ext4 5ecc1c9a-b5d1-42d6-bd24-9c1ca73c3adf    764,1G    54% /media/eric/Tosh2Tbleu1ext4
sdc                                                                                                             
nvme0n1                                                                                                         
├─nvme0n1p1    vfat              FAT32                    57E7-29DB                               463,4M     2% /boot/efi
├─nvme0n1p2    linux_raid_member 1.2      leopard:0       b6cdc4fa-13b9-253a-d2c4-998d8bfb82ac                  
│ └─md0        swap              1                        8dbbe639-f425-4e9f-a442-fe3b74250f26                  
└─nvme0n1p3    LVM2_member       LVM2 001                 4efK8z-27e9-ibZu-MDsy-GunB-6JXp-4HDrVs                
  ├─VG0-Racine ext4              1.0                      16af7cbd-1802-4bfc-abe6-e3099af839f3     46,7G    26% /
  ├─VG0-Var    ext4              1.0                      7de51107-32d9-45bd-834b-bb27a48fd001     34,8G    18% /var
  ├─VG0-Local  ext4              1.0      Usr_Local       026ee7b8-601b-4168-885f-6d69be5535fc     18,4G    55% /usr/local
  ├─VG0-Eric   ext4              1.0      Eric            ca3e100c-c6ff-453c-b85f-6f97ba193367     24,8G    72% /home/eric
  ├─VG0-Work   ext4              1.0      Home            3d18a5ad-aba0-4b79-a24a-0b35e5eb8b87    595,9G    57% /home/work
  └─VG0-swap   swap              1                        b30af611-de69-471f-9055-ca466b7e4f9b                  [SWAP]
nvme1n1                                                                                                         
├─nvme1n1p1    vfat              FAT32                    A488-6EEB                                             
├─nvme1n1p2    linux_raid_member 1.2      leopard:0       b6cdc4fa-13b9-253a-d2c4-998d8bfb82ac                  
│ └─md0        swap              1                        8dbbe639-f425-4e9f-a442-fe3b74250f26                  
└─nvme1n1p3    LVM2_member       LVM2 001                 Nd403x-z2ml-P9T8-DeNY-H8mZ-zh2X-uXQArt                

Voici ce que j’ai trouvé comme indication:
(mdstat indique un raid1)

$cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 nvme1n1p2[1] nvme0n1p2[0]
      62466048 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>

Le raid est encore actif, bien qu’il ne soit pas utilisé (swapoff)

Je n’ai encore appliqué aucune commande mdadm avant d’en savoir et comprendre plus (comptant sur votre aide)

# Arrêter les swaps
swapoff -a
# Supprimer les devices raid
mdadm --remove /dev/md0
# Ensuite supprime les superblocks
mdadm --zero-superblock /dev/nvme0n1p2
mdadm --zero-superblock /dev/nvme1n1p2

Ensuite il faudra ensisager de:

  • changer la partition p3 en P2
    • Deplacer la partition p3 renommée en P2 pour qu’elle soit adjacente à P1 et ainsi mettre tout l’espace libre en find e disque
  • Intégrer l’espace libre dans ta partition LVM P2.

Il y a plusieurs moyen d’envisager ça.

Pour avoir eu à le faire un jour, j’ai procéder comme suit:

  • désactiver le second disque du RAID1 pour n’avoir un RAID 1 qu’avec un seul disque. Sortir le disque du RAID.
  • effacer complètement et wiper le second disque pour en faire un disque « neuf ».
  • Tu fait les modifications sur le disque 1, membre unique du RAID.
  • Une fois que tout est bon, tu intègre le second disque comme un nouveau disque. Le mécanisme du RAID se chargera de reproduire ton premier disque sur le second sans rien avoir à faire de plus.

Typiquement du fait des grosses lacunes de l’installateur de Debian, il n’est pas possible de faire une machien RAID 1 avec tout sur le LVM et le /boot/efi en dehors, donc avec:
md0 → efi
md1 → lvm

Debian ne sait pas faire.

Donc j’ai fait une installation sans installation du grub. J’ai modifié le md0 pour avec les métadonnées en version 1.0 (seul moyen de pour avoir l’efi seul dessus). J’ai installé le grub manuellement.
Puis j’ai ajouter le second disque dans le RAID.

Merci Zargos,
pour moi tout ceci me pose beaucoup de questions

pour commencer:

-1 comment?
Pourquoi (pour mettre un peu d’ordre dans mes idées ou pour des motifs plus techniques) ?

Il s’agit de 2 SSD et non de disques durs, les questions d’adjacence et de fin de disque restent-elles opportunes?

2- Ensuite, les RAID dont vous parlez sont-ils bien les LVM en miroir? (et là, les questions se multiplient…)

Le boot efi est bien sur une partition séparée, et j’ai créé une partition identique sur le 2e SSD pour y placer une copie

Mes données ne sont pas en Miroir LVM, mais l’espace sur le 2e SSD est prévu pour en faire régulièrement une copie.
(pour l’instant, les sauvegardes ne sont qu’externes)
En effet, je n’ai jamais eu d’autres soucis que ceux que j’ai créé moi-même, et non par problème de disque dur ou de SSD. Dans ce cas le LVM reproduit évidemment mes erreurs et autres imprudences. Bien entendu, je me doute que cela peut arriver, mais, pour mes données, je dispose déjà de sauvegardes fréquentes et incrémentales.

est-ce que ces manœuvres se font avec gparted?

gparted et Gparted

Premier problème:

root@leopard:~# swapoff -a
root@leopard:~# mdadm --remove /dev/md0
root@leopard:~# mdadm --zero-superblock /dev/nvme0n1p2
mdadm: Couldn't open /dev/nvme0n1p2 for write - not zeroing

$lsblk
NAME           MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
sda              8:0    0   1,8T  0 disk  
└─sda1           8:1    0   1,8T  0 part  /media/eric/Tosh2T_2024
sdb              8:16   0   1,8T  0 disk  
└─sdb1           8:17   0   1,8T  0 part  /media/eric/Tosh2Tbleu1ext4
sdc              8:32   1     0B  0 disk  
nvme0n1        259:0    0   3,6T  0 disk  
├─nvme0n1p1    259:1    0   333M  0 part  /boot/efi
├─nvme0n1p2    259:2    0  59,6G  0 part  
│ └─md0          9:0    0  59,6G  0 raid1 
└─nvme0n1p3    259:3    0   3,6T  0 part  
  ├─VG0-Racine 253:0    0  69,8G  0 lvm   /
  ├─VG0-Var    253:1    0  46,6G  0 lvm   /var
  ├─VG0-Local  253:2    0  46,6G  0 lvm   /usr/local
  ├─VG0-Eric   253:3    0 109,8G  0 lvm   /home/eric
  ├─VG0-Work   253:4    0   1,6T  0 lvm   /home/work
  └─VG0-swap   253:5    0   125G  0 lvm   
nvme1n1        259:4    0   3,6T  0 disk  
├─nvme1n1p1    259:5    0   333M  0 part  
├─nvme1n1p2    259:6    0  59,6G  0 part  
│ └─md0          9:0    0  59,6G  0 raid1 
└─nvme1n1p3    259:7    0   3,6T  0 part

oui c’est pas une question de technologie de disque mais de gestion de filesystem.
Il faut arrêter de donner des particularités aux SSD qui n’existent pas :slight_smile:

Ca ne sert à rien, le syst_me RAID va faire la synchro, c’est fait pour ça.

Je ne veux pas de raid pour mes données, je préfère des sauvegardes, par ailleurs également sur un disque externe.

Je crois découvrir qu’en réalité, le miroir LVM n’est pas installé.

En attendant la commande mdadm échoue:

# mdadm --zero-superblock /dev/nvme0n1p2
mdadm: Couldn't open /dev/nvme0n1p2 for write - not zeroing

Il vaut mieux me protéger de moi-même que du matériel pour mon usage quotidien!

En revanche pour les problèmes informatiques et d’administration il vaut mieux ne pas trop compter sur moi, et là le LVM miroir RAID et un timeshift sur disque externe sont recommandés.

Bonjour,

où est le problème ?

# swapoff -a
root@leopard:~# free -h
               total       utilisé      libre     partagé tamp/cache   disponible
Mem:            62Gi        10Gi       2,9Gi       2,7Gi        52Gi        52Gi
Échange:          0B          0B          0B
root@leopard:~# mdadm --remove /dev/md0
root@leopard:~# mdadm --zero-superblock /dev/nvme0n1p2
mdadm: Couldn't open /dev/nvme0n1p2 for write - not zeroing
root@leopard:~#

Ce n’est pas plutôt mdadm --stop /dev/md0 ?

oui j’ai oublié la ligne.
Il fautr effectivement désactiver le device avant de le retirer.
Il faut faire les deux, stop d’abord remove ensuite.

Merci à tous les deux,

Finalement, j’ai appliqué la série proposée sur le wiki debian-facile, avec la ligne -S (autre syntaxe pour --stop).

reste le problème du déplacement et renommage des partitions nvme0n1p3 et nvme1n1p3 avec gparted.

J’ai pu les supprimer, mais l’une est déplaçable vers l’espace libérée, et pas l’autre. Enfin je crois avoir constaté que le mirroring n’est pas effectif.
Il va falloir que j’étudie ça de nouveau…
encore merci.

1 J'aime