Technologieführer

GRUB & /dev/sda für RAID1 auf LVM vorbereiten

5 min read Systemadministration Aktualisiert 28 Sep 2025
GRUB & /dev/sda für RAID1 auf LVM vorbereiten
GRUB & /dev/sda für RAID1 auf LVM vorbereiten

Kurze Anleitung, wie Sie GRUB auf beiden Festplatten installieren, /dev/sda in ein bereits laufendes RAID1 einfügen und LVM-Volumes prüfen. Enthält Prüfbefehle, Fehlerbehebung, Checklisten und Empfehlungen zur Überwachung.

Vorbedingungen

  • Sie arbeiten auf einem laufenden Linux-System mit LVM auf RAID1.
  • Die Sekundärfestplatte (/dev/sdb) ist bereits eingerichtet und bootfähig.
  • Sie haben Root-Rechte oder sudo-Zugriff.
  • Grundkenntnisse zu GRUB, mdadm und LVM sind hilfreich.

Kurzdefinitionen

  • RAID1: Spiegelung zweier Laufwerke für Redundanz.
  • GRUB: Bootloader, der das System startet.
  • mdadm: Tool zur Verwaltung von Linux-Software-RAID.
  • LVM: Logical Volume Manager zur flexiblen Partitionierung.

Wichtige Absicht und Varianten

Dieses Dokument zeigt, wie Sie GRUB auf der zweiten Festplatte installieren und /dev/sda in ein bestehendes RAID1 mit LVM integrieren. Verwandte Varianten: RAID1 mit BIOS/UEFI, RAID0/RAID5, Verwendung von GRUB2 vs. GRUB (ältere Shell), Migration von MBR zu GPT mit RAID.


Schritt 6: GRUB installieren

Installieren Sie den GRUB-Bootloader auf der zweiten Festplatte /dev/sdb. Dazu rufen Sie die GRUB-Shell auf:

grub

In der GRUB-Shell geben Sie nacheinander die folgenden Befehle ein. Die Befehle zeigen, welchen Datenträger und welche Partition GRUB als Root für die Boot-Dateien verwenden soll und installieren anschließend den Bootloader in den MBR der jeweiligen Platte.

root (hd0,0)

Die Ausgabe kann ähnlich aussehen:

grub> root (hd0,0)  
root (hd0,0)  
Filesystem type is ext2fs, partition type 0x83  
grub>

Erläuterung: root (hd0,0) weist GRUB an, die erste Partition des ersten BIOS-Laufwerks als Wurzel für seine Dateien zu nehmen. In Legacy-GRUB sind Laufwerke so nummeriert.

Führen Sie dann die Installation auf das erste BIOS-Laufwerk (hd0) aus:

setup (hd0)

Beispielausgabe:

grub> setup (hd0)  
setup (hd0)  
Checking if "/boot/grub/stage1" exists... no  
Checking if "/grub/stage1" exists... yes  
Checking if "/grub/stage2" exists... yes  
Checking if "/grub/e2fs_stage1_5" exists... yes  
Running "embed /grub/e2fs_stage1_5 (hd0)"...  15 sectors are embedded.  
succeeded  
Running "install /grub/stage1 (hd0) (hd0)1+15 p (hd0,0)/grub/stage2 /grub/grub.conf"... succeeded  
Done.  
grub>

Dann wiederholen Sie die Schritte für das zweite Laufwerk (hd1):

root (hd1,0)

Ausgabe:

grub> root (hd1,0)  
root (hd1,0)  
Filesystem type is ext2fs, partition type 0xfd  
grub>

Und installieren Sie GRUB auf dem zweiten Laufwerk:

setup (hd1)

Ausgabe:

grub> setup (hd1)  
setup (hd1)  
Checking if "/boot/grub/stage1" exists... no  
Checking if "/grub/stage1" exists... yes  
Checking if "/grub/stage2" exists... yes  
Checking if "/grub/e2fs_stage1_5" exists... yes  
Running "embed /grub/e2fs_stage1_5 (hd1)"...  15 sectors are embedded.  
succeeded  
Running "install /grub/stage1 (hd1) (hd1)1+15 p (hd1,0)/grub/stage2 /grub/grub.conf"... succeeded  
Done.  
grub>

Beenden Sie die GRUB-Shell:

quit

Wichtig: Diese Schritte schreiben GRUB in den MBR der jeweiligen Platte. Bei UEFI-Systemen verwenden Sie stattdessen den passenden EFI-Mechanismus (grub-install auf einer EFI-Partition).

Jetzt starten Sie das System neu, um zu prüfen, ob das System von den RAID-Arrays bootet:

reboot

Schritt 7: /dev/sda vorbereiten und dem RAID hinzufügen

Nach dem Reboot prüfen Sie, ob /dev/md0 vorhanden ist:

df -h

Beispielausgabe:

[root@server1 ~]# df -h  
Filesystem            Size  Used Avail Use% Mounted on  
/dev/mapper/VolGroup00-LogVol00  
8.6G  1.4G  6.8G  18% /  
/dev/md0               99M   16M   79M  17% /boot  
tmpfs                 250M     0  250M   0% /dev/shm  
[root@server1 ~]#

Prüfen Sie den RAID-Status mit:

cat /proc/mdstat

Beispielausgabe:

[root@server1 ~]# cat /proc/mdstat  
Personalities : [raid1]  
md0 : active raid1 sdb1[1]  
104320 blocks [2/1] [_U]    
  
md1 : active raid1 sdb2[1] sda2[0]  
10377920 blocks [2/2] [UU]    
  
unused devices:   
[root@server1 ~]#

Die Ausgaben von pvdisplay, vgdisplay, lvdisplay helfen zu verifizieren, dass LVM korrekt auf dem RAID läuft:

pvdisplay
[root@server1 ~]# pvdisplay  
--- Physical volume ---  
PV Name               /dev/md1  
VG Name               VolGroup00  
PV Size               9.90 GB / not usable 22.69 MB  
Allocatable           yes (but full)  
PE Size (KByte)       32768  
Total PE              316  
Free PE               0  
Allocated PE          316  
PV UUID               u6IZfM-5Zj8-kFaG-YN8K-kjAd-3Kfv-0oYk7J    
  
[root@server1 ~]#
vgdisplay
[root@server1 ~]# vgdisplay  
--- Volume group ---  
VG Name               VolGroup00  
System ID   
Format                lvm2  
Metadata Areas        1  
Metadata Sequence No  9  
VG Access             read/write  
VG Status             resizable  
MAX LV                0  
Cur LV                2  
Open LV               2  
Max PV                0  
Cur PV                1  
Act PV                1  
VG Size               9.88 GB  
PE Size               32.00 MB  
Total PE              316  
Alloc PE / Size       316 / 9.88 GB  
Free  PE / Size       0 / 0  
VG UUID               ZPvC10-cN09-fI0S-Vc8l-vOuZ-wM6F-tlz0Mj  
  
[root@server1 ~]#
lvdisplay
[root@server1 ~]# lvdisplay  
--- Logical volume ---  
LV Name                /dev/VolGroup00/LogVol00  
VG Name                VolGroup00  
LV UUID                vYlky0-Ymx4-PNeK-FTpk-qxvm-PmoZ-3vcNTd  
LV Write Access        read/write  
LV Status              available  
# open                 1  
LV Size                8.88 GB  
Current LE             284  
Segments               1  
Allocation             inherit  
Read ahead sectors     auto  
- currently set to     256  
Block device           253:0  
  
--- Logical volume ---  
LV Name                /dev/VolGroup00/LogVol01  
VG Name                VolGroup00  
LV UUID                Ml9MMN-DcOA-Lb6V-kWPU-h6IK-P0ww-Gp9vd2  
LV Write Access        read/write  
LV Status              available  
# open                 1  
LV Size                1.00 GB  
Current LE             32  
Segments               1  
Allocation             inherit  
Read ahead sectors     auto  
- currently set to     256  
Block device           253:1  
  
[root@server1 ~]#

Nun ändern Sie den Partitions-Typ von /dev/sda1 auf “Linux raid autodetect” mit fdisk:

fdisk /dev/sda

Interaktives Beispiel (Eingaben nach <–):

[root@server1 ~]# fdisk /dev/sda  
  
The number of cylinders for this disk is set to 1305.  
There is nothing wrong with that, but this is larger than 1024,  
and could in certain setups cause problems with:  
1) software that runs at boot time (e.g., old versions of LILO)  
2) booting and partitioning software from other OSs  
(e.g., DOS FDISK, OS/2 FDISK)  
  
Command (m for help): <-- t  
Partition number (1-4): <-- 1  
Hex code (type L to list codes): <-- fd  
Changed system type of partition 1 to fd (Linux raid autodetect)  
  
Command (m for help): <-- w  
The partition table has been altered!  
  
Calling ioctl() to re-read partition table.  
  
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.  
The kernel still uses the old table.  
The new table will be used at the next reboot.  
Syncing disks.  
[root@server1 ~]#

Erläuterung: Die Warnung mit Fehler 16 ist normal, wenn Dateien auf der Partition geöffnet sind. Ein Reboot liest die neue Partitionstabelle ein.

Jetzt können Sie /dev/sda1 zum RAID-Array /dev/md0 hinzufügen:

mdadm --add /dev/md0 /dev/sda1

Überprüfen Sie den RAID-Status erneut:

cat /proc/mdstat

Beispielausgabe nach dem Hinzufügen:

[root@server1 ~]# cat /proc/mdstat  
Personalities : [raid1]  
md0 : active raid1 sda1[0] sdb1[1]  
104320 blocks [2/2] [UU]    
  
md1 : active raid1 sdb2[1] sda2[0]  
10377920 blocks [2/2] [UU]    
  
unused devices:   
[root@server1 ~]#

/etc/mdadm.conf anpassen

Scannen Sie die Arrays und schreiben Sie die Konfiguration nach /etc/mdadm.conf:

mdadm --examine --scan > /etc/mdadm.conf

Prüfen Sie die Datei:

cat /etc/mdadm.conf

Sie sollte ähnliche Einträge enthalten:

ARRAY /dev/md0 level=raid1 num-devices=2 UUID=0a96be0f:bf0f4631:a910285b:0f337164
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=f9e691e2:8d25d314:40f42444:7dbe1da1

Anschließend ein finaler Reboot:

reboot

Wenn alles korrekt ist, startet das System ohne Probleme vom RAID.


Fehlerbehebung und Monitoring

  • RAID-Neusync überwachen: watch cat /proc/mdstat
  • Detaillierte Informationen: mdadm –detail /dev/md0
  • Logs prüfen: journalctl -b oder /var/log/messages
  • Wenn das System nicht bootet: prüfen Sie, ob GRUB auf beiden MBRs installiert ist und ob die Bootreihenfolge im BIOS korrekt ist.
  • Bei UEFI-Systemen: prüfen Sie EFI-Partitionen (vfat) und verwenden Sie grub-install –target=x86_64-efi.

Wichtig

  • Führen Sie keine Partitionsänderungen durch, wenn kritische Dienste ohne Ausfalltoleranz laufen, ohne Backup.
  • Änderungen an Bootloader und Partitionstabellen bergen Boot-Risiko. Planen Sie Wartungsfenster.

Wann diese Methode fehlschlagen kann

  • UEFI-Systeme ohne Legacy-BIOS-Unterstützung: GRUB in MBR hilft nicht. Nutzen Sie EFI-Mechanismen.
  • Hardware-RAID-Controller, die die Laufwerke abstrahieren: mdadm-Arrays funktionieren anders.
  • Wenn eine Partition gemountet ist und fdisk die Tabelle nicht neu laden kann, ist ein Reboot notwendig.

Alternative Ansätze

  • Bei UEFI: grub-install –boot-directory=/boot –efi-directory=/boot/efi –target=x86_64-efi
  • Statt alter GRUB-Shell: grub-install /dev/sda und grub-install /dev/sdb (bei GRUB2)
  • Für neue Systeme: Verwenden Sie GPT + efivars und systemd-boot oder GRUB2 mit EFI.

Rolle-basierte Checkliste

Systemadministrator:

  • Backup wichtiger Daten anlegen.
  • GRUB auf beiden physischen Laufwerken installieren.
  • /etc/mdadm.conf aktualisieren.
  • Reboot planen und durchführen.

Operator:

  • RAID-Resync überwachen: watch cat /proc/mdstat.
  • LVM-Volumes prüfen: pvdisplay, vgdisplay, lvdisplay.
  • Bei Problemen Logs sammeln (journalctl -b).

Akzeptanzkriterien

  • /dev/md0 und /dev/md1 sind active und zeigen [UU] in /proc/mdstat.
  • /boot ist auf /dev/md0 gemountet und bootfähig.
  • GRUB ist auf allen bootrelevanten physischen Datenträgern installiert.
  • /etc/mdadm.conf enthält die korrekten ARRAY-Zeilen.

Mini-Methodologie

  1. Backup erstellen.
  2. GRUB-Shell starten und Bootloader auf allen Datenträgern installieren.
  3. Partitions-Typ anpassen, falls nötig.
  4. Laufwerk in md-Array hinzufügen.
  5. mdadm.conf aktualisieren und System neu starten.
  6. Monitoring und Validierung durchführen.

Risiken und Gegenmaßnahmen

  • Risiko: System bootet nicht nach GRUB-Änderung. Gegenmaßnahme: Live-Medium und Rescue-Modus, Kontrolle der BIOS/UEFI-Einstellungen.
  • Risiko: Datenverlust durch fehlerhafte Partitionierung. Gegenmaßnahme: Backup, Planung und Tests in Nicht-Produktivumgebung.

Kurz-Zusammenfassung

Sie haben GRUB auf den beteiligten Festplatten installiert, /dev/sda in das RAID-Array integriert und LVM-Status geprüft. Achten Sie auf Reboots zur Neubewertung der Partitionstabelle und überwachen Sie den Resync bis zum Abschluss.

Wichtig

Diese Anleitung beschreibt ein Legacy-GRUB-Szenario; bei moderner UEFI-Umgebung passen Sie die Schritte entsprechend an.

Autor
Redaktion

Ähnliche Materialien

RAID1 mit zwei Festplatten einrichten
Server

RAID1 mit zwei Festplatten einrichten

Windows 11 25H2 herunterladen & installieren
Anleitung

Windows 11 25H2 herunterladen & installieren

Corneal Key Logger: PIN aus Selfies
Sicherheit

Corneal Key Logger: PIN aus Selfies

Touchpad reagiert nicht in Windows 10 – Fixanleitung
Troubleshooting

Touchpad reagiert nicht in Windows 10 – Fixanleitung

BoltWire auf Ubuntu 18.04 installieren
CMS Installation

BoltWire auf Ubuntu 18.04 installieren

GRUB & /dev/sda für RAID1 auf LVM vorbereiten
Systemadministration

GRUB & /dev/sda für RAID1 auf LVM vorbereiten