Guide des technologies

Préparer GRUB et /dev/sda pour un RAID1 logiciel sur un système LVM en cours d'exécution

5 min read Administration système Mis à jour 28 Sep 2025
RAID1 sous LVM : préparer GRUB et /dev/sda
RAID1 sous LVM : préparer GRUB et /dev/sda

Ce guide explique comment installer GRUB sur le second disque, vérifier que les ensembles RAID et volumes LVM sont corrects, changer le type de partition de /dev/sda1 en “Linux raid autodetect”, ajouter /dev/sda1 à /dev/md0, régénérer /etc/mdadm.conf et redémarrer. Suivez chaque commande dans l’ordre et vérifiez les sorties avant de poursuivre.

Important : exécutez ceci depuis la machine elle‑même ou via une console de gestion hors bande (IPMI/DRAC) — ne faites pas ces opérations uniquement depuis une session distante non persistante.

Contexte et définition rapide

  • RAID1 logiciel : miroir de blocs entre deux disques, géré par mdadm. Assure la redondance des données.
  • LVM (Logical Volume Manager) : gestion dynamique de volumes logiques au‑dessus de volumes physiques (ici sur /dev/md1).
  • GRUB : chargeur d’amorçage. Pour démarrer un système en RAID, GRUB doit être installé sur chaque disque amorçable.

Prérequis

  • Accès root local ou via sudo.
  • mdadm et lvm2 installés.
  • Sauvegarde récente de données critiques.
  • Console série / IPMI recommandée pour pouvoir redémarrer en toute sécurité.

6 Préparer GRUB

Nous devons installer le chargeur GRUB sur le second disque /dev/sdb. Lancez d’abord l’interpréteur GRUB :

grub

Sur le shell GRUB, tapez les commandes suivantes (conformes à la session interactive) :

root (hd0,0)

La sortie possible :

grub> root (hd0,0)  
root (hd0,0)  
Filesystem type is ext2fs, partition type 0x83  
grub>

Puis installez GRUB sur le disque ciblé :

setup (hd0)

Exemple de sortie d’installation :

grub> setup (hd0)  
setup (hd0)  
Checking if "/boot/grub/stage1" exists... no  
Checking if "/grub/stage1" exists... yes  
Checking if "/grub/stage2" exists... yes  
Checking if "/grub/e2fs_stage1_5" exists... yes  
Running "embed /grub/e2fs_stage1_5 (hd0)"...  15 sectors are embedded.  
succeeded  
Running "install /grub/stage1 (hd0) (hd0)1+15 p (hd0,0)/grub/stage2 /grub/grub.conf"... succeeded  
Done.  
grub>

Répétez pour l’autre disque (celui qui sera nommé hd1 dans GRUB) :

root (hd1,0)

Sortie typique :

grub> root (hd1,0)  
root (hd1,0)  
Filesystem type is ext2fs, partition type 0xfd  
grub>

Puis :

setup (hd1)

Sortie d’installation :

grub> setup (hd1)  
setup (hd1)  
Checking if "/boot/grub/stage1" exists... no  
Checking if "/grub/stage1" exists... yes  
Checking if "/grub/stage2" exists... yes  
Checking if "/grub/e2fs_stage1_5" exists... yes  
Running "embed /grub/e2fs_stage1_5 (hd1)"...  15 sectors are embedded.  
succeeded  
Running "install /grub/stage1 (hd1) (hd1)1+15 p (hd1,0)/grub/stage2 /grub/grub.conf"... succeeded  
Done.  
grub>

Pour quitter le shell GRUB :

quit

De retour sur le shell normal, redémarrez pour vérifier que le système peut démarrer depuis les ensembles RAID :

reboot

Note : si vous perdez l’accès après le redémarrage, utilisez la console hors bande pour récupérer la machine.

7 Préparer /dev/sda

Une fois que le système a redémarré, vérifiez que /dev/md0 est présent :

df -h

Exemple fourni :

[root@server1 ~]# df -h  
Filesystem            Size  Used Avail Use% Mounted on  
/dev/mapper/VolGroup00-LogVol00  
8.6G  1.4G  6.8G  18% /  
/dev/md0               99M   16M   79M  17% /boot  
tmpfs                  250M     0  250M   0% /dev/shm  
[root@server1 ~]#

Vérifiez l’état des ensembles RAID :

cat /proc/mdstat

Sortie attendue :

[root@server1 ~]# cat /proc/mdstat  
Personalities : [raid1]  
md0 : active raid1 sdb1[1]  
104320 blocks [2/1] [_U]    
  
md1 : active raid1 sdb2[1] sda2[0]  
10377920 blocks [2/2] [UU]    
  
unused devices:   
[root@server1 ~]#

Vérifiez les volumes physiques et logiques LVM : pvdisplay, vgdisplay, lvdisplay. Les sorties illustratives sont conservées ci‑dessous et servent de référence attendue.

pvdisplay
[root@server1 ~]# pvdisplay  
--- Physical volume ---  
PV Name               /dev/md1  
VG Name               VolGroup00  
PV Size               9.90 GB / not usable 22.69 MB  
Allocatable           yes (but full)  
PE Size (KByte)       32768  
Total PE              316  
Free PE               0  
Allocated PE          316  
PV UUID               u6IZfM-5Zj8-kFaG-YN8K-kjAd-3Kfv-0oYk7J    
  
[root@server1 ~]#
vgdisplay
[root@server1 ~]# vgdisplay  
--- Volume group ---  
VG Name               VolGroup00  
System ID  
Format                lvm2  
Metadata Areas        1  
Metadata Sequence No  9  
VG Access             read/write  
VG Status             resizable  
MAX LV                0  
Cur LV                2  
Open LV               2  
Max PV                0  
Cur PV                1  
Act PV                1  
VG Size               9.88 GB  
PE Size               32.00 MB  
Total PE              316  
Alloc PE / Size       316 / 9.88 GB  
Free  PE / Size       0 / 0  
VG UUID               ZPvC10-cN09-fI0S-Vc8l-vOuZ-wM6F-tlz0Mj  
  
[root@server1 ~]#
lvdisplay
[root@server1 ~]# lvdisplay  
--- Logical volume ---  
LV Name                /dev/VolGroup00/LogVol00  
VG Name                VolGroup00  
LV UUID                vYlky0-Ymx4-PNeK-FTpk-qxvm-PmoZ-3vcNTd  
LV Write Access        read/write  
LV Status              available  
# open                 1  
LV Size                8.88 GB  
Current LE             284  
Segments               1  
Allocation             inherit  
Read ahead sectors     auto  
- currently set to     256  
Block device           253:0  
  
--- Logical volume ---  
LV Name                /dev/VolGroup00/LogVol01  
VG Name                VolGroup00  
LV UUID                Ml9MMN-DcOA-Lb6V-kWPU-h6IK-P0ww-Gp9vd2  
LV Write Access        read/write  
LV Status              available  
# open                 1  
LV Size                1.00 GB  
Current LE             32  
Segments               1  
Allocation             inherit  
Read ahead sectors     auto  
- currently set to     256  
Block device           253:1  
  
[root@server1 ~]#

Changer le type de partition de /dev/sda1

Modifiez maintenant le type de partition de /dev/sda1 pour “Linux raid autodetect” (code fd) :

fdisk /dev/sda

Exemple d’interaction :

[root@server1 ~]# fdisk /dev/sda  
  
The number of cylinders for this disk is set to 1305.  
There is nothing wrong with that, but this is larger than 1024,  
and could in certain setups cause problems with:  
1) software that runs at boot time (e.g., old versions of LILO)  
2) booting and partitioning software from other OSs  
(e.g., DOS FDISK, OS/2 FDISK)  
  
Command (m for help): <-- t  
Partition number (1-4): <-- 1  
Hex code (type L to list codes): <-- fd  
Changed system type of partition 1 to fd (Linux raid autodetect)  
  
Command (m for help): <-- w  
The partition table has been altered!  
  
Calling ioctl() to re-read partition table.  
  
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.  
The kernel still uses the old table.  
The new table will be used at the next reboot.  
Syncing disks.  
[root@server1 ~]#

Note : si la relecture échoue (error 16), le changement s’appliquera au prochain redémarrage. Vous pouvez utiliser partprobe ou rebooter si possible.

Ajouter /dev/sda1 à /dev/md0

Ajoutez la partition nouvellement marquée au RAID :

mdadm --add /dev/md0 /dev/sda1

Puis vérifiez l’état du RAID :

cat /proc/mdstat

Sortie attendue après ajout et synchronisation :

[root@server1 ~]# cat /proc/mdstat  
Personalities : [raid1]  
md0 : active raid1 sda1[0] sdb1[1]  
104320 blocks [2/2] [UU]    
  
md1 : active raid1 sdb2[1] sda2[0]  
10377920 blocks [2/2] [UU]    
  
unused devices:   
[root@server1 ~]#

Mettre à jour /etc/mdadm.conf

Générez une nouvelle configuration pour mdadm et écrivez /etc/mdadm.conf :

mdadm --examine --scan > /etc/mdadm.conf

Vérifiez le contenu :

cat /etc/mdadm.conf

Contenu attendu (exemple) :

ARRAY /dev/md0 level=raid1 num-devices=2 UUID=0a96be0f:bf0f4631:a910285b:0f337164
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=f9e691e2:8d25d314:40f42444:7dbe1da1

Enfin, redémarrez pour valider le processus :

reboot

Le système devrait démarrer normalement à partir des ensembles RAID.

Critères de réussite

  • Le BIOS/UEFI amorce à partir d’un des disques configurés.
  • /dev/md0 et /dev/md1 sont actifs et affichent l’état [UU] dans /proc/mdstat.
  • Les volumes LVM sont disponibles et montés (/boot sur /dev/md0).
  • /etc/mdadm.conf contient les ARRAY correspondants.

Procédure de retour arrière (runbook en cas de problème)

  1. Si le système ne démarre plus : monter un média de secours (live CD) ou connecter la console hors bande.
  2. Bootez en mode rescue, assemblez manuellement les md (mdadm –assemble –scan) si nécessaire.
  3. Réinstallez GRUB depuis le live sur les deux disques : chroot vers l’installation et grub-install /dev/sda ; grub-install /dev/sdb.
  4. Si /dev/sda1 n’a pas été ajouté ou provoque des erreurs, retirez-la : mdadm –remove /dev/md0 /dev/sda1 puis restaurez le type de partition si besoin.
  5. Restaurer les fichiers de configuration depuis la sauvegarde (/etc/mdadm.conf, /boot/grub/grub.conf).

Liste de vérification par rôle

  • Administrateur système : sauvegarde des données, plan de maintenance, validation des sauvegardes.
  • Opérateur : exécuter les commandes, vérifier les sorties, surveiller la reconstruction RAID.
  • Ingénieur de stockage : valider l’intégrité LVM et la stratégie de récupération.

Mini méthodologie et heuristiques

  • Méthode : vérifier état -> modifier métadonnées -> ajouter au RAID -> vérifier synchronisation -> mettre à jour configuration -> redémarrer.
  • Heuristique : ne jamais modifier deux éléments critiques (partitionnement, GRUB) simultanément sans sauvegarde ou console de secours.

Fiche technique rapide (fact box)

  • Taille de /dev/md0 dans l’exemple : 99M (monté sur /boot).
  • Taille du VG : ≈9.88 GB.
  • Outils principaux : grub, fdisk, mdadm, pvdisplay/vgdisplay/lvdisplay.
  • Codes de partition RAID : fd (Linux raid autodetect).

Problèmes fréquents et remédiations

  • Relecture de la table de partitions échoue (error 16) : redémarrer la machine si possible, ou utiliser partprobe ; si impossibilité, planifier redémarrage en fenêtre de maintenance.
  • RAID non resynchronisé après ajout : vérifier dmesg pour erreurs I/O ; attendre la reconstruction (affiché dans /proc/mdstat).
  • GRUB non trouvé sur un disque : réinstaller GRUB sur chaque disque via grub-install ou shell GRUB comme montré.

Commandes utiles (cheat sheet)

  • grub (ouvrir shell GRUB)
  • setup (hd0) (dans shell GRUB)
  • fdisk /dev/sda
  • mdadm –add /dev/md0 /dev/sda1
  • mdadm –examine –scan > /etc/mdadm.conf
  • cat /proc/mdstat
  • pvdisplay ; vgdisplay ; lvdisplay
  • reboot

Résumé

Vous avez installé GRUB sur les disques, vérifié l’état des ensembles RAID, changé le type de partition de /dev/sda1 en Linux raid autodetect, ajouté la partition à /dev/md0, régénéré /etc/mdadm.conf et redémarré le système. Après validation, le système doit démarrer proprement depuis les ensembles RAID1 et LVM doit exposer les volumes attendus.

Notes importantes

  • Toujours disposer d’une console hors bande avant de modifier l’amorçage ou le partitionnement.
  • Gardez une sauvegarde validée avant toute opération irréversible.

1‑ligne glossaire

  • RAID1 : miroir disque-à-disque ; GRUB : chargeur d’amorçage ; LVM : gestion de volumes logiques.

Fin du guide. Félicitations — vous avez configuré le RAID1 logiciel sur un système LVM en activité.

Auteur
Édition

Matériaux similaires

Migrer vers RAID1 et préparer le démarrage
Administration Linux

Migrer vers RAID1 et préparer le démarrage

Télécharger et installer Windows 11 25H2
Guides

Télécharger et installer Windows 11 25H2

Corneal Key Logger: extraire un PIN depuis un selfie
Sécurité Mobile

Corneal Key Logger: extraire un PIN depuis un selfie

Pavé tactile Windows 10 — correctifs rapides
Assistance technique

Pavé tactile Windows 10 — correctifs rapides

Installer BoltWire CMS sur Ubuntu 18.04
Tutoriel

Installer BoltWire CMS sur Ubuntu 18.04

RAID1 sous LVM : préparer GRUB et /dev/sda
Administration système

RAID1 sous LVM : préparer GRUB et /dev/sda