Préparer GRUB et /dev/sda pour un RAID1 logiciel sur un système LVM en cours d'exécution
Ce guide explique comment installer GRUB sur le second disque, vérifier que les ensembles RAID et volumes LVM sont corrects, changer le type de partition de /dev/sda1 en “Linux raid autodetect”, ajouter /dev/sda1 à /dev/md0, régénérer /etc/mdadm.conf et redémarrer. Suivez chaque commande dans l’ordre et vérifiez les sorties avant de poursuivre.
Important : exécutez ceci depuis la machine elle‑même ou via une console de gestion hors bande (IPMI/DRAC) — ne faites pas ces opérations uniquement depuis une session distante non persistante.
Contexte et définition rapide
- RAID1 logiciel : miroir de blocs entre deux disques, géré par mdadm. Assure la redondance des données.
- LVM (Logical Volume Manager) : gestion dynamique de volumes logiques au‑dessus de volumes physiques (ici sur /dev/md1).
- GRUB : chargeur d’amorçage. Pour démarrer un système en RAID, GRUB doit être installé sur chaque disque amorçable.
Prérequis
- Accès root local ou via sudo.
- mdadm et lvm2 installés.
- Sauvegarde récente de données critiques.
- Console série / IPMI recommandée pour pouvoir redémarrer en toute sécurité.
6 Préparer GRUB
Nous devons installer le chargeur GRUB sur le second disque /dev/sdb. Lancez d’abord l’interpréteur GRUB :
grub
Sur le shell GRUB, tapez les commandes suivantes (conformes à la session interactive) :
root (hd0,0)
La sortie possible :
grub> root (hd0,0)
root (hd0,0)
Filesystem type is ext2fs, partition type 0x83
grub>
Puis installez GRUB sur le disque ciblé :
setup (hd0)
Exemple de sortie d’installation :
grub> setup (hd0)
setup (hd0)
Checking if "/boot/grub/stage1" exists... no
Checking if "/grub/stage1" exists... yes
Checking if "/grub/stage2" exists... yes
Checking if "/grub/e2fs_stage1_5" exists... yes
Running "embed /grub/e2fs_stage1_5 (hd0)"... 15 sectors are embedded.
succeeded
Running "install /grub/stage1 (hd0) (hd0)1+15 p (hd0,0)/grub/stage2 /grub/grub.conf"... succeeded
Done.
grub>
Répétez pour l’autre disque (celui qui sera nommé hd1 dans GRUB) :
root (hd1,0)
Sortie typique :
grub> root (hd1,0)
root (hd1,0)
Filesystem type is ext2fs, partition type 0xfd
grub>
Puis :
setup (hd1)
Sortie d’installation :
grub> setup (hd1)
setup (hd1)
Checking if "/boot/grub/stage1" exists... no
Checking if "/grub/stage1" exists... yes
Checking if "/grub/stage2" exists... yes
Checking if "/grub/e2fs_stage1_5" exists... yes
Running "embed /grub/e2fs_stage1_5 (hd1)"... 15 sectors are embedded.
succeeded
Running "install /grub/stage1 (hd1) (hd1)1+15 p (hd1,0)/grub/stage2 /grub/grub.conf"... succeeded
Done.
grub>
Pour quitter le shell GRUB :
quit
De retour sur le shell normal, redémarrez pour vérifier que le système peut démarrer depuis les ensembles RAID :
reboot
Note : si vous perdez l’accès après le redémarrage, utilisez la console hors bande pour récupérer la machine.
7 Préparer /dev/sda
Une fois que le système a redémarré, vérifiez que /dev/md0 est présent :
df -h
Exemple fourni :
[root@server1 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
8.6G 1.4G 6.8G 18% /
/dev/md0 99M 16M 79M 17% /boot
tmpfs 250M 0 250M 0% /dev/shm
[root@server1 ~]#
Vérifiez l’état des ensembles RAID :
cat /proc/mdstat
Sortie attendue :
[root@server1 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdb1[1]
104320 blocks [2/1] [_U]
md1 : active raid1 sdb2[1] sda2[0]
10377920 blocks [2/2] [UU]
unused devices:
[root@server1 ~]#
Vérifiez les volumes physiques et logiques LVM : pvdisplay, vgdisplay, lvdisplay. Les sorties illustratives sont conservées ci‑dessous et servent de référence attendue.
pvdisplay
[root@server1 ~]# pvdisplay
--- Physical volume ---
PV Name /dev/md1
VG Name VolGroup00
PV Size 9.90 GB / not usable 22.69 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 316
Free PE 0
Allocated PE 316
PV UUID u6IZfM-5Zj8-kFaG-YN8K-kjAd-3Kfv-0oYk7J
[root@server1 ~]#
vgdisplay
[root@server1 ~]# vgdisplay
--- Volume group ---
VG Name VolGroup00
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 9
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 2
Max PV 0
Cur PV 1
Act PV 1
VG Size 9.88 GB
PE Size 32.00 MB
Total PE 316
Alloc PE / Size 316 / 9.88 GB
Free PE / Size 0 / 0
VG UUID ZPvC10-cN09-fI0S-Vc8l-vOuZ-wM6F-tlz0Mj
[root@server1 ~]#
lvdisplay
[root@server1 ~]# lvdisplay
--- Logical volume ---
LV Name /dev/VolGroup00/LogVol00
VG Name VolGroup00
LV UUID vYlky0-Ymx4-PNeK-FTpk-qxvm-PmoZ-3vcNTd
LV Write Access read/write
LV Status available
# open 1
LV Size 8.88 GB
Current LE 284
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
--- Logical volume ---
LV Name /dev/VolGroup00/LogVol01
VG Name VolGroup00
LV UUID Ml9MMN-DcOA-Lb6V-kWPU-h6IK-P0ww-Gp9vd2
LV Write Access read/write
LV Status available
# open 1
LV Size 1.00 GB
Current LE 32
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:1
[root@server1 ~]#
Changer le type de partition de /dev/sda1
Modifiez maintenant le type de partition de /dev/sda1 pour “Linux raid autodetect” (code fd) :
fdisk /dev/sda
Exemple d’interaction :
[root@server1 ~]# fdisk /dev/sda
The number of cylinders for this disk is set to 1305.
There is nothing wrong with that, but this is larger than 1024,
and could in certain setups cause problems with:
1) software that runs at boot time (e.g., old versions of LILO)
2) booting and partitioning software from other OSs
(e.g., DOS FDISK, OS/2 FDISK)
Command (m for help): <-- t
Partition number (1-4): <-- 1
Hex code (type L to list codes): <-- fd
Changed system type of partition 1 to fd (Linux raid autodetect)
Command (m for help): <-- w
The partition table has been altered!
Calling ioctl() to re-read partition table.
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table.
The new table will be used at the next reboot.
Syncing disks.
[root@server1 ~]#
Note : si la relecture échoue (error 16), le changement s’appliquera au prochain redémarrage. Vous pouvez utiliser partprobe ou rebooter si possible.
Ajouter /dev/sda1 à /dev/md0
Ajoutez la partition nouvellement marquée au RAID :
mdadm --add /dev/md0 /dev/sda1
Puis vérifiez l’état du RAID :
cat /proc/mdstat
Sortie attendue après ajout et synchronisation :
[root@server1 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda1[0] sdb1[1]
104320 blocks [2/2] [UU]
md1 : active raid1 sdb2[1] sda2[0]
10377920 blocks [2/2] [UU]
unused devices:
[root@server1 ~]#
Mettre à jour /etc/mdadm.conf
Générez une nouvelle configuration pour mdadm et écrivez /etc/mdadm.conf :
mdadm --examine --scan > /etc/mdadm.conf
Vérifiez le contenu :
cat /etc/mdadm.conf
Contenu attendu (exemple) :
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=0a96be0f:bf0f4631:a910285b:0f337164
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=f9e691e2:8d25d314:40f42444:7dbe1da1
Enfin, redémarrez pour valider le processus :
reboot
Le système devrait démarrer normalement à partir des ensembles RAID.
Critères de réussite
- Le BIOS/UEFI amorce à partir d’un des disques configurés.
- /dev/md0 et /dev/md1 sont actifs et affichent l’état [UU] dans /proc/mdstat.
- Les volumes LVM sont disponibles et montés (/boot sur /dev/md0).
- /etc/mdadm.conf contient les ARRAY correspondants.
Procédure de retour arrière (runbook en cas de problème)
- Si le système ne démarre plus : monter un média de secours (live CD) ou connecter la console hors bande.
- Bootez en mode rescue, assemblez manuellement les md (mdadm –assemble –scan) si nécessaire.
- Réinstallez GRUB depuis le live sur les deux disques : chroot vers l’installation et grub-install /dev/sda ; grub-install /dev/sdb.
- Si /dev/sda1 n’a pas été ajouté ou provoque des erreurs, retirez-la : mdadm –remove /dev/md0 /dev/sda1 puis restaurez le type de partition si besoin.
- Restaurer les fichiers de configuration depuis la sauvegarde (/etc/mdadm.conf, /boot/grub/grub.conf).
Liste de vérification par rôle
- Administrateur système : sauvegarde des données, plan de maintenance, validation des sauvegardes.
- Opérateur : exécuter les commandes, vérifier les sorties, surveiller la reconstruction RAID.
- Ingénieur de stockage : valider l’intégrité LVM et la stratégie de récupération.
Mini méthodologie et heuristiques
- Méthode : vérifier état -> modifier métadonnées -> ajouter au RAID -> vérifier synchronisation -> mettre à jour configuration -> redémarrer.
- Heuristique : ne jamais modifier deux éléments critiques (partitionnement, GRUB) simultanément sans sauvegarde ou console de secours.
Fiche technique rapide (fact box)
- Taille de /dev/md0 dans l’exemple : 99M (monté sur /boot).
- Taille du VG : ≈9.88 GB.
- Outils principaux : grub, fdisk, mdadm, pvdisplay/vgdisplay/lvdisplay.
- Codes de partition RAID : fd (Linux raid autodetect).
Problèmes fréquents et remédiations
- Relecture de la table de partitions échoue (error 16) : redémarrer la machine si possible, ou utiliser partprobe ; si impossibilité, planifier redémarrage en fenêtre de maintenance.
- RAID non resynchronisé après ajout : vérifier dmesg pour erreurs I/O ; attendre la reconstruction (affiché dans /proc/mdstat).
- GRUB non trouvé sur un disque : réinstaller GRUB sur chaque disque via grub-install ou shell GRUB comme montré.
Commandes utiles (cheat sheet)
- grub (ouvrir shell GRUB)
- setup (hd0) (dans shell GRUB)
- fdisk /dev/sda
- mdadm –add /dev/md0 /dev/sda1
- mdadm –examine –scan > /etc/mdadm.conf
- cat /proc/mdstat
- pvdisplay ; vgdisplay ; lvdisplay
- reboot
Résumé
Vous avez installé GRUB sur les disques, vérifié l’état des ensembles RAID, changé le type de partition de /dev/sda1 en Linux raid autodetect, ajouté la partition à /dev/md0, régénéré /etc/mdadm.conf et redémarré le système. Après validation, le système doit démarrer proprement depuis les ensembles RAID1 et LVM doit exposer les volumes attendus.
Notes importantes
- Toujours disposer d’une console hors bande avant de modifier l’amorçage ou le partitionnement.
- Gardez une sauvegarde validée avant toute opération irréversible.
1‑ligne glossaire
- RAID1 : miroir disque-à-disque ; GRUB : chargeur d’amorçage ; LVM : gestion de volumes logiques.
Fin du guide. Félicitations — vous avez configuré le RAID1 logiciel sur un système LVM en activité.
Matériaux similaires
Migrer vers RAID1 et préparer le démarrage

Télécharger et installer Windows 11 25H2

Corneal Key Logger: extraire un PIN depuis un selfie

Pavé tactile Windows 10 — correctifs rapides
