GRUB & /dev/sda für RAID1 auf LVM vorbereiten
Kurze Anleitung, wie Sie GRUB auf beiden Festplatten installieren, /dev/sda in ein bereits laufendes RAID1 einfügen und LVM-Volumes prüfen. Enthält Prüfbefehle, Fehlerbehebung, Checklisten und Empfehlungen zur Überwachung.
Vorbedingungen
- Sie arbeiten auf einem laufenden Linux-System mit LVM auf RAID1.
- Die Sekundärfestplatte (/dev/sdb) ist bereits eingerichtet und bootfähig.
- Sie haben Root-Rechte oder sudo-Zugriff.
- Grundkenntnisse zu GRUB, mdadm und LVM sind hilfreich.
Kurzdefinitionen
- RAID1: Spiegelung zweier Laufwerke für Redundanz.
- GRUB: Bootloader, der das System startet.
- mdadm: Tool zur Verwaltung von Linux-Software-RAID.
- LVM: Logical Volume Manager zur flexiblen Partitionierung.
Wichtige Absicht und Varianten
Dieses Dokument zeigt, wie Sie GRUB auf der zweiten Festplatte installieren und /dev/sda in ein bestehendes RAID1 mit LVM integrieren. Verwandte Varianten: RAID1 mit BIOS/UEFI, RAID0/RAID5, Verwendung von GRUB2 vs. GRUB (ältere Shell), Migration von MBR zu GPT mit RAID.
Schritt 6: GRUB installieren
Installieren Sie den GRUB-Bootloader auf der zweiten Festplatte /dev/sdb. Dazu rufen Sie die GRUB-Shell auf:
grub
In der GRUB-Shell geben Sie nacheinander die folgenden Befehle ein. Die Befehle zeigen, welchen Datenträger und welche Partition GRUB als Root für die Boot-Dateien verwenden soll und installieren anschließend den Bootloader in den MBR der jeweiligen Platte.
root (hd0,0)
Die Ausgabe kann ähnlich aussehen:
grub> root (hd0,0)
root (hd0,0)
Filesystem type is ext2fs, partition type 0x83
grub>
Erläuterung: root (hd0,0) weist GRUB an, die erste Partition des ersten BIOS-Laufwerks als Wurzel für seine Dateien zu nehmen. In Legacy-GRUB sind Laufwerke so nummeriert.
Führen Sie dann die Installation auf das erste BIOS-Laufwerk (hd0) aus:
setup (hd0)
Beispielausgabe:
grub> setup (hd0)
setup (hd0)
Checking if "/boot/grub/stage1" exists... no
Checking if "/grub/stage1" exists... yes
Checking if "/grub/stage2" exists... yes
Checking if "/grub/e2fs_stage1_5" exists... yes
Running "embed /grub/e2fs_stage1_5 (hd0)"... 15 sectors are embedded.
succeeded
Running "install /grub/stage1 (hd0) (hd0)1+15 p (hd0,0)/grub/stage2 /grub/grub.conf"... succeeded
Done.
grub>
Dann wiederholen Sie die Schritte für das zweite Laufwerk (hd1):
root (hd1,0)
Ausgabe:
grub> root (hd1,0)
root (hd1,0)
Filesystem type is ext2fs, partition type 0xfd
grub>
Und installieren Sie GRUB auf dem zweiten Laufwerk:
setup (hd1)
Ausgabe:
grub> setup (hd1)
setup (hd1)
Checking if "/boot/grub/stage1" exists... no
Checking if "/grub/stage1" exists... yes
Checking if "/grub/stage2" exists... yes
Checking if "/grub/e2fs_stage1_5" exists... yes
Running "embed /grub/e2fs_stage1_5 (hd1)"... 15 sectors are embedded.
succeeded
Running "install /grub/stage1 (hd1) (hd1)1+15 p (hd1,0)/grub/stage2 /grub/grub.conf"... succeeded
Done.
grub>
Beenden Sie die GRUB-Shell:
quit
Wichtig: Diese Schritte schreiben GRUB in den MBR der jeweiligen Platte. Bei UEFI-Systemen verwenden Sie stattdessen den passenden EFI-Mechanismus (grub-install auf einer EFI-Partition).
Jetzt starten Sie das System neu, um zu prüfen, ob das System von den RAID-Arrays bootet:
reboot
Schritt 7: /dev/sda vorbereiten und dem RAID hinzufügen
Nach dem Reboot prüfen Sie, ob /dev/md0 vorhanden ist:
df -h
Beispielausgabe:
[root@server1 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
8.6G 1.4G 6.8G 18% /
/dev/md0 99M 16M 79M 17% /boot
tmpfs 250M 0 250M 0% /dev/shm
[root@server1 ~]#
Prüfen Sie den RAID-Status mit:
cat /proc/mdstat
Beispielausgabe:
[root@server1 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdb1[1]
104320 blocks [2/1] [_U]
md1 : active raid1 sdb2[1] sda2[0]
10377920 blocks [2/2] [UU]
unused devices:
[root@server1 ~]#
Die Ausgaben von pvdisplay, vgdisplay, lvdisplay helfen zu verifizieren, dass LVM korrekt auf dem RAID läuft:
pvdisplay
[root@server1 ~]# pvdisplay
--- Physical volume ---
PV Name /dev/md1
VG Name VolGroup00
PV Size 9.90 GB / not usable 22.69 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 316
Free PE 0
Allocated PE 316
PV UUID u6IZfM-5Zj8-kFaG-YN8K-kjAd-3Kfv-0oYk7J
[root@server1 ~]#
vgdisplay
[root@server1 ~]# vgdisplay
--- Volume group ---
VG Name VolGroup00
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 9
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 2
Max PV 0
Cur PV 1
Act PV 1
VG Size 9.88 GB
PE Size 32.00 MB
Total PE 316
Alloc PE / Size 316 / 9.88 GB
Free PE / Size 0 / 0
VG UUID ZPvC10-cN09-fI0S-Vc8l-vOuZ-wM6F-tlz0Mj
[root@server1 ~]#
lvdisplay
[root@server1 ~]# lvdisplay
--- Logical volume ---
LV Name /dev/VolGroup00/LogVol00
VG Name VolGroup00
LV UUID vYlky0-Ymx4-PNeK-FTpk-qxvm-PmoZ-3vcNTd
LV Write Access read/write
LV Status available
# open 1
LV Size 8.88 GB
Current LE 284
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
--- Logical volume ---
LV Name /dev/VolGroup00/LogVol01
VG Name VolGroup00
LV UUID Ml9MMN-DcOA-Lb6V-kWPU-h6IK-P0ww-Gp9vd2
LV Write Access read/write
LV Status available
# open 1
LV Size 1.00 GB
Current LE 32
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:1
[root@server1 ~]#
Nun ändern Sie den Partitions-Typ von /dev/sda1 auf “Linux raid autodetect” mit fdisk:
fdisk /dev/sda
Interaktives Beispiel (Eingaben nach <–):
[root@server1 ~]# fdisk /dev/sda
The number of cylinders for this disk is set to 1305.
There is nothing wrong with that, but this is larger than 1024,
and could in certain setups cause problems with:
1) software that runs at boot time (e.g., old versions of LILO)
2) booting and partitioning software from other OSs
(e.g., DOS FDISK, OS/2 FDISK)
Command (m for help): <-- t
Partition number (1-4): <-- 1
Hex code (type L to list codes): <-- fd
Changed system type of partition 1 to fd (Linux raid autodetect)
Command (m for help): <-- w
The partition table has been altered!
Calling ioctl() to re-read partition table.
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table.
The new table will be used at the next reboot.
Syncing disks.
[root@server1 ~]#
Erläuterung: Die Warnung mit Fehler 16 ist normal, wenn Dateien auf der Partition geöffnet sind. Ein Reboot liest die neue Partitionstabelle ein.
Jetzt können Sie /dev/sda1 zum RAID-Array /dev/md0 hinzufügen:
mdadm --add /dev/md0 /dev/sda1
Überprüfen Sie den RAID-Status erneut:
cat /proc/mdstat
Beispielausgabe nach dem Hinzufügen:
[root@server1 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda1[0] sdb1[1]
104320 blocks [2/2] [UU]
md1 : active raid1 sdb2[1] sda2[0]
10377920 blocks [2/2] [UU]
unused devices:
[root@server1 ~]#
/etc/mdadm.conf anpassen
Scannen Sie die Arrays und schreiben Sie die Konfiguration nach /etc/mdadm.conf:
mdadm --examine --scan > /etc/mdadm.conf
Prüfen Sie die Datei:
cat /etc/mdadm.conf
Sie sollte ähnliche Einträge enthalten:
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=0a96be0f:bf0f4631:a910285b:0f337164
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=f9e691e2:8d25d314:40f42444:7dbe1da1
Anschließend ein finaler Reboot:
reboot
Wenn alles korrekt ist, startet das System ohne Probleme vom RAID.
Fehlerbehebung und Monitoring
- RAID-Neusync überwachen: watch cat /proc/mdstat
- Detaillierte Informationen: mdadm –detail /dev/md0
- Logs prüfen: journalctl -b oder /var/log/messages
- Wenn das System nicht bootet: prüfen Sie, ob GRUB auf beiden MBRs installiert ist und ob die Bootreihenfolge im BIOS korrekt ist.
- Bei UEFI-Systemen: prüfen Sie EFI-Partitionen (vfat) und verwenden Sie grub-install –target=x86_64-efi.
Wichtig
- Führen Sie keine Partitionsänderungen durch, wenn kritische Dienste ohne Ausfalltoleranz laufen, ohne Backup.
- Änderungen an Bootloader und Partitionstabellen bergen Boot-Risiko. Planen Sie Wartungsfenster.
Wann diese Methode fehlschlagen kann
- UEFI-Systeme ohne Legacy-BIOS-Unterstützung: GRUB in MBR hilft nicht. Nutzen Sie EFI-Mechanismen.
- Hardware-RAID-Controller, die die Laufwerke abstrahieren: mdadm-Arrays funktionieren anders.
- Wenn eine Partition gemountet ist und fdisk die Tabelle nicht neu laden kann, ist ein Reboot notwendig.
Alternative Ansätze
- Bei UEFI: grub-install –boot-directory=/boot –efi-directory=/boot/efi –target=x86_64-efi
- Statt alter GRUB-Shell: grub-install /dev/sda und grub-install /dev/sdb (bei GRUB2)
- Für neue Systeme: Verwenden Sie GPT + efivars und systemd-boot oder GRUB2 mit EFI.
Rolle-basierte Checkliste
Systemadministrator:
- Backup wichtiger Daten anlegen.
- GRUB auf beiden physischen Laufwerken installieren.
- /etc/mdadm.conf aktualisieren.
- Reboot planen und durchführen.
Operator:
- RAID-Resync überwachen: watch cat /proc/mdstat.
- LVM-Volumes prüfen: pvdisplay, vgdisplay, lvdisplay.
- Bei Problemen Logs sammeln (journalctl -b).
Akzeptanzkriterien
- /dev/md0 und /dev/md1 sind active und zeigen [UU] in /proc/mdstat.
- /boot ist auf /dev/md0 gemountet und bootfähig.
- GRUB ist auf allen bootrelevanten physischen Datenträgern installiert.
- /etc/mdadm.conf enthält die korrekten ARRAY-Zeilen.
Mini-Methodologie
- Backup erstellen.
- GRUB-Shell starten und Bootloader auf allen Datenträgern installieren.
- Partitions-Typ anpassen, falls nötig.
- Laufwerk in md-Array hinzufügen.
- mdadm.conf aktualisieren und System neu starten.
- Monitoring und Validierung durchführen.
Risiken und Gegenmaßnahmen
- Risiko: System bootet nicht nach GRUB-Änderung. Gegenmaßnahme: Live-Medium und Rescue-Modus, Kontrolle der BIOS/UEFI-Einstellungen.
- Risiko: Datenverlust durch fehlerhafte Partitionierung. Gegenmaßnahme: Backup, Planung und Tests in Nicht-Produktivumgebung.
Kurz-Zusammenfassung
Sie haben GRUB auf den beteiligten Festplatten installiert, /dev/sda in das RAID-Array integriert und LVM-Status geprüft. Achten Sie auf Reboots zur Neubewertung der Partitionstabelle und überwachen Sie den Resync bis zum Abschluss.
Wichtig
Diese Anleitung beschreibt ein Legacy-GRUB-Szenario; bei moderner UEFI-Umgebung passen Sie die Schritte entsprechend an.
Ähnliche Materialien
RAID1 mit zwei Festplatten einrichten

Windows 11 25H2 herunterladen & installieren

Corneal Key Logger: PIN aus Selfies

Touchpad reagiert nicht in Windows 10 – Fixanleitung
