Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Beide Seiten, vorherige Überarbeitung Vorherige Überarbeitung Nächste Überarbeitung | Vorherige Überarbeitung | ||
softraid_einrichten [2013/12/26 19:57] – /* Reparatur eines Softraid */ admin | softraid_einrichten [2017/04/01 17:35] (aktuell) – gelöscht admin | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
- | |||
- | ====== Installation ====== | ||
- | |||
- | |||
- | Je nach dem ob das zu verwendende Raidlevel bereits im Kernel fix einkompiliert wurde oder nicht kann man die Raidlevels natürlich nachladen. | ||
- | | ||
- | modprobe dm_mod | ||
- | modprobe raid5 | ||
- | modprobe raid0 | ||
- | usw. | ||
- | modprobe dm_mod | ||
- | |||
- | Wir gehen hier von einem Raid5 mit 3 Festplatten für ein kleines Backupsystem aus. Hierfür müssen wir die Platten zuerst partitionieren und danach eine Gerätedatei anlegen. | ||
- | | ||
- | cfdisk /dev/sdb | ||
- | Als Partitionstyp " | ||
- | die Gerätedatei. | ||
- | mknod /dev/md1 b 9 1 | ||
- | |||
- | Mdadm installieren | ||
- | emerge sys-fs/ | ||
- | Und das Raid initialisieren | ||
- | | ||
- | mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1 | ||
- | |||
- | Man kann dann mit folgenden Befehl den Fortschritt anzeigen. | ||
- | watch cat / | ||
- | Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] | ||
- | md1 : active raid5 sdd1[3] sdc1[1] sdb1[0] | ||
- | 976770048 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_] | ||
- | [> | ||
- | | ||
- | unused devices: < | ||
- | |||
- | |||
- | |||
- | ====== Reparatur eines Softraid ====== | ||
- | |||
- | |||
- | Annahme ist ein Raid1 mit zwei SSD's. Eine davon ist ausgefallen. Sieht dann so aus: | ||
- | Bevor man z.B. eine neue Platte einbaut muss diese Partitioniert werden. Das macht man am einfachsten wenn man das Schema von der guten Platte auf die neue überträgt: | ||
- | | ||
- | sgdisk /dev/QUELLE -b save.gpt | ||
- | sgdisk /dev/ZIEL -G -l save.gpt | ||
- | |||
- | | ||
- | Personalities : [linear] [raid0] [raid1] | ||
- | md127 : active raid1 sdc1[1] | ||
- | 513984 blocks [2/1] [_U] | ||
- | | ||
- | md1 : active raid1 sda1[0] | ||
- | 513984 blocks [2/1] [U_] | ||
- | | ||
- | md2 : active raid1 sda2[0] | ||
- | 58099008 blocks [2/1] [U_] | ||
- | |||
- | Jetzt müssen wir das Raid reparieren. Zuerst löschen wir mal fehlerhafte Device: | ||
- | | ||
- | mdadm --stop /dev/md127 | ||
- | |||
- | Um nun die andere Festplatte wieder zu aktivieren muss man sie lediglich hinzufügen. Der Rest geht von alleine: | ||
- | | ||
- | mdadm --add /dev/md1 /dev/sdc1 | ||
- | mdadm --add /dev/md2 /dev/sdc2 | ||
- | |||
- | Danach kann man gut den Synchvorgang des Raids sehen: | ||
- | | ||
- | cat / | ||
- | Personalities : [linear] [raid0] [raid1] | ||
- | md1 : active raid1 sdc1[1] sda1[0] | ||
- | 513984 blocks [2/2] [UU] | ||
- | | ||
- | md2 : active raid1 sdc2[2] sda2[0] | ||
- | 58099008 blocks [2/1] [U_] | ||
- | [> | ||
- | |||
- | Auf der neuen Platte sollte man dann natürlich auch Grub schreiben: | ||
- | | ||
- | grub-mkdevicemap | ||
- | grub-install /dev/ZIEL | ||
- | |||