Dies ist eine alte Version des Dokuments!


Installation

Je nach dem ob das zu verwendende Raidlevel bereits im Kernel fix einkompiliert wurde oder nicht kann man die Raidlevels natürlich nachladen.

modprobe dm_mod
modprobe raid5
modprobe raid0
usw.
modprobe dm_mod

Wir gehen hier von einem Raid5 mit 3 Festplatten für ein kleines Backupsystem aus. Hierfür müssen wir die Platten zuerst partitionieren und danach eine Gerätedatei anlegen.

cfdisk /dev/sdb
Als Partitionstyp "FD" (Linux raid autodetect) wählen. Danach erstellen wir
die Gerätedatei.
mknod /dev/md1 b 9 1

Mdadm installieren

emerge sys-fs/mdadm

Und das Raid initialisieren

mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1

Man kann dann mit folgenden Befehl den Fortschritt anzeigen.

watch cat /proc/mdstat
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md1 : active raid5 sdd1[3] sdc1[1] sdb1[0]
      976770048 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      [>....................]  recovery =  2.4% (11830528/488385024) finish=79.7min speed=99604K/sec
      
unused devices: <none>

Reparatur eines Softraid

Annahme ist ein Raid1 mit zwei SSD's. Eine davon ist ausgefallen. Sieht dann so aus: Bevor man z.B. eine neue Platte einbaut muss diese Partitioniert werden. Das macht man am einfachsten wenn man das Schema von der guten Platte auf die neue überträgt: Zuerst den GPT Partitiontable auf der Zielplatte mit Gparted anlegen.

sgdisk /dev/QUELLE -b save.gpt
sgdisk /dev/ZIEL -G -l save.gpt
Personalities : [linear] [raid0] [raid1] 
md127 : active raid1 sdc1[1]
      513984 blocks [2/1] [_U]
      
md1 : active raid1 sda1[0]
      513984 blocks [2/1] [U_]
      
md2 : active raid1 sda2[0]
      58099008 blocks [2/1] [U_]

Jetzt müssen wir das Raid reparieren. Zuerst löschen wir mal fehlerhafte Device:

mdadm --stop /dev/md127

Um nun die andere Festplatte wieder zu aktivieren muss man sie lediglich hinzufügen. Der Rest geht von alleine:

mdadm --add /dev/md1 /dev/sdc1
mdadm --add /dev/md2 /dev/sdc2

Danach kann man gut den Synchvorgang des Raids sehen:

cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] 
md1 : active raid1 sdc1[1] sda1[0]
      513984 blocks [2/2] [UU]
      
md2 : active raid1 sdc2[2] sda2[0]
      58099008 blocks [2/1] [U_]
      [>....................]  recovery =  0.2% (155584/58099008) finish=12.4min speed=77792K/sec

Auf der neuen Platte sollte man dann natürlich auch Grub schreiben:

grub-mkdevicemap
grub-install /dev/ZIEL