GRUB2 für RAID1 auf LVM vorbereiten
Überblick
Dieser Leitfaden beschreibt die Schritte, um GRUB2 korrekt für ein laufendes LVM-System mit Software-RAID1 (mdadm) vorzubereiten. Er führt durch die Installation von GRUB auf beiden Festplatten, das Anpassen von Partitionstypen, das Hinzufügen von Devices zum RAID, das Aktualisieren der mdadm- und GRUB-Konfiguration sowie abschließende Tests und Validierungen.
Wichtige Begriffe in einer Zeile:
- RAID1: Spiegelung zweier Festplatten für Redundanz.
- mdadm: Linux-Tool zur Verwaltung von Software-RAID.
- LVM: Logical Volume Manager, Schicht für flexible Volumes.
Wichtig: Arbeite mit root-Rechten und stelle Sicherungen bereit. Ein Bootfehler kann Remote-Zugriff unterbrechen.
1. GRUB2 auf beiden Datenträgern installieren
Installiere GRUB2 auf beiden Festplatten, damit das System auch dann startet, wenn eine Platte ausfällt.
grub-install /dev/sda
grub-install /dev/sdb
Starte das System neu, um zu prüfen, ob der Boot-Prozess funktioniert:
reboot
2. Nach dem Neustart prüfen
Überprüfe, ob /dev/md0 gemountet ist:
df -h
Beispielausgabe (zur Orientierung):
root@server1:~# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/server1-root
4.5G 722M 3.6G 17% /
tmpfs 249M 0 249M 0% /lib/init/rw
udev 244M 128K 244M 1% /dev
tmpfs 249M 0 249M 0% /dev/shm
/dev/md0 236M 18M 206M 8% /boot
root@server1:~#
Kontrolliere den RAID-Status:
cat /proc/mdstat
Beispielausgabe:
root@server1:~# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda5[2] sdb5[1]
4989940 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sdb1[1]
248820 blocks super 1.2 [2/1] [_U]
unused devices:
root@server1:~#
Wenn eine der Arrays nur einen aktiven Member hat (z. B. [_U]), dann ist ein Device noch nicht wieder eingebunden.
3. LVM-Status prüfen
Prüfe pvdisplay, vgdisplay und lvdisplay, um sicherzustellen, dass LVM noch intakt ist.
pvdisplay
(Beispielausgabe bleibt technisch unverändert und dient als Referenz; bitte eigene Ausgabe prüfen.)
root@server1:~# pvdisplay
--- Physical volume ---
PV Name /dev/md1
VG Name server1
PV Size 4.76 GiB / not usable 1012.00 KiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 1218
Free PE 0
Allocated PE 1218
PV UUID W4I07I-RT3P-DK1k-1HBz-oJvp-6in0-uQ53KS
root@server1:~#
vgdisplay
root@server1:~# vgdisplay
--- Volume group ---
VG Name server1
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 9
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 2
Max PV 0
Cur PV 1
Act PV 1
VG Size 4.76 GiB
PE Size 4.00 MiB
Total PE 1218
Alloc PE / Size 1218 / 4.76 GiB
Free PE / Size 0 / 0
VG UUID m99fJX-gMl9-g2XZ-CazH-32s8-sy1Q-8JjCUW
root@server1:~#
lvdisplay
root@server1:~# lvdisplay
--- Logical volume ---
LV Name /dev/server1/root
VG Name server1
LV UUID 8SNLPE-gHqA-a2LX-BO9o-0QQO-DV2z-3WvTYe
LV Write Access read/write
LV Status available
# open 1
LV Size 4.51 GiB
Current LE 1155
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
--- Logical volume ---
LV Name /dev/server1/swap_1
VG Name server1
LV UUID kYaKtb-vkkV-TDDE-me1R-nnER-dzN8-BcVTwz
LV Write Access read/write
LV Status available
# open 1
LV Size 252.00 MiB
Current LE 63
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:1
root@server1:~#
4. Partitionstyp ändern und Device hinzufügen
Wenn /dev/sda1 noch nicht als RAID markiert ist, ändere den Partitionstyp auf “fd” (Linux raid autodetect):
fdisk /dev/sda
Interaktive Schritte (Beispiel):
- Befehl: t
- Partition: 1
- Typ: fd
- Befehl: w
Beispielausgabe:
root@server1:~# fdisk /dev/sda
WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
switch off the mode (command 'c') and change display units to
sectors (command 'u').
Command (m for help): <-- t
Partition number (1-5): <-- 1
Hex code (type L to list codes): <-- fd
Changed system type of partition 1 to fd (Linux raid autodetect)
Command (m for help): <-- w
The partition table has been altered!
Calling ioctl() to re-read partition table.
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table. The new table will be used at
the next reboot or after you run partprobe(8) or kpartx(8)
Syncing disks.
root@server1:~#
Füge das Device zum RAID-Array hinzu:
mdadm --add /dev/md0 /dev/sda1
Prüfe den Synchronisationsstatus:
cat /proc/mdstat
Erwartete Ausgabe nach Hinzufügen:
root@server1:~# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sda5[2] sdb5[1]
4989940 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sda1[2] sdb1[1]
248820 blocks super 1.2 [2/2] [UU]
unused devices:
root@server1:~#
5. mdadm-Konfiguration anpassen
Sichere die bestehende Konfiguration und generiere eine neue mdadm.conf:
cp /etc/mdadm/mdadm.conf_orig /etc/mdadm/mdadm.conf
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
Beispielinhalt von /etc/mdadm/mdadm.conf (Referenz):
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
DEVICE partitions
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST
MAILADDR root
# definitions of existing MD arrays
# This file was auto-generated on Tue, 24 May 2011 21:11:37 +0200
# by mkconf 3.1.4-1+8efb9d1
ARRAY /dev/md/0 metadata=1.2 UUID=6cde4bf4:7ee67d24:b31e2713:18865f31 name=server1.example.com:0
ARRAY /dev/md/1 metadata=1.2 UUID=3ce9f2f2:ac89f75a:530c5ee9:0d4c67da name=server1.example.com:1
Wichtig: Prüfe, dass die UUIDs und Device-Pfade zu deiner Maschine passen.
6. GRUB-Konfiguration aktualisieren
Entferne gegebenenfalls das alte Skript, das für SW RAID vor der Umstellung verwendet wurde, und aktualisiere GRUB-Konfiguration sowie initramfs:
rm -f /etc/grub.d/09_swraid1_setup
update-grub
update-initramfs -u
Prüfe /boot/grub/grub.cfg. Die menuentry-Stanzas unter ### BEGIN /etc/grub.d/10_linux ### sollten auf /dev/md0 zeigen statt auf (hd0) oder (hd1).
Installiere zur Sicherheit erneut GRUB auf beiden Platten und starte neu:
grub-install /dev/sda
grub-install /dev/sdb
reboot
Es sollte ohne Probleme starten.
7. Kriterien für erfolgreiche Einrichtung
- Beide RAID-Arrays (z. B. /dev/md0 und /dev/md1) zeigen [UU] in /proc/mdstat.
- pvdisplay, vgdisplay und lvdisplay zeigen die erwarteten Volumes und Größen.
- /boot ist auf /dev/md0 gemountet.
- GRUB ist auf /dev/sda und /dev/sdb installiert.
- Ein Reboot führt zum normalen Start ohne manuellen Eingriff.
8. Testfälle und Abnahme
Testfälle:
- Simuliere Ausfall einer Platte (z. B. entferne /dev/sdb) und boote vom verbleibenden Datenträger.
- Füge die Platte wieder ein und beobachte Resync mit cat /proc/mdstat.
- Prüfe, ob initramfs die md-Module lädt (grep md /boot/initramfs-$(uname -r)).
Akzeptanzkriterien:
- Boot nach simuliertem Plattenausfall erfolgreich.
- RAID resync vollständig abgeschlossen.
- Alle UUIDs in /etc/mdadm/mdadm.conf korrekt und konsistent.
9. Rollback- und Wiederherstellungs-Playbook (Kurz)
- Wenn System nicht mehr bootet, boote von Live- oder Rescue-Medium.
- Prüfe Partitionen und md-Devices (fdisk -l, cat /proc/mdstat).
- Wenn md-Arrays fehlen, versuche mdadm –assemble –scan.
- Stelle /boot wieder her und installiere GRUB neu auf beiden Platten.
- Rebuild initramfs: chroot /mnt && update-initramfs -u && update-grub.
10. Risikomatrix und Gegenmaßnahmen
Risiko | Wahrscheinlichkeit | Auswirkung | Gegenmaßnahme |
---|---|---|---|
Boot fällt aus nach Änderung | mittel | hoch | Rescue-Medium bereithalten, GRUB auf beiden Disks installieren |
Falsche mdadm.conf | gering | mittel | Backup der alten mdadm.conf, mdadm –examine –scan verwenden |
Partitionstabelle wird nicht neu geladen | mittel | mittel | partprobe oder Systemneustart |
11. Alternative Ansätze und Hinweise
- UEFI-Systeme: Achte darauf, ob /boot auf GPT/EFI-Partition liegt. GRUB-Installation unterscheidet sich (grub-install –target=x86_64-efi).
- Hardware-RAID: Bei Hardware-RAID entfällt mdadm; Vorgehen und Werkzeuge unterscheiden sich.
- Wenn LVM über RAID liegt (RAID unter LVM), bleibt die Reihenfolge md -> pv -> vg -> lv korrekt.
12. Rollenbasierte Checkliste
Systemadministrator:
- Backup erstellen.
- GRUB auf beiden Disks installieren.
- mdadm.conf aktualisieren.
Operator / SRE:
- Reboot testen.
- RAID-Resync überwachen.
- Monitoring/Alerts prüfen (z. B. mdadm –monitor Konfiguration).
13. Kurzes Glossar
- RAID1: Spiegelung für Redundanz.
- mdadm: Tool für Software-RAID.
- LVM: Abstraktionsschicht für Partitionen.
Zusammenfassung
Du hast nun GRUB2 auf beiden Festplatten installiert, fehlende RAID-Devices wieder eingebunden, mdadm.conf und GRUB-Konfiguration angepasst und das System erfolgreich getestet. Damit ist dein LVM-basiertes System mit Software-RAID1 robust gegen einen einzelnen Plattenausfall.
Wichtig: Führe nach jeder größeren Änderung Tests durch (Neustart, Plattenausfall-Simulation) und behalte Synchronisation/Aktualisierungen im Auge.
Ähnliche Materialien

Windows 10 Home: Updates kontrollieren und sicher verzögern

Linux auf Android installieren

Dateien ohne Cloud synchronisieren

Hogwarts Legacy stürzt ab? PC‑Lösungen

PC zusammenbauen: Komplett‑Anleitung & Fehlerbehebung
