Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Beide Seiten, vorherige Überarbeitung Vorherige Überarbeitung Nächste Überarbeitung | Vorherige Überarbeitung Nächste ÜberarbeitungBeide Seiten, nächste Überarbeitung | ||
server_und_serverdienste:linux_zfs [2017/08/01 00:04] – [Die wichtigsten ZFS-Befehle auf einen Blick] boospy | server_und_serverdienste:linux_zfs [2018/06/18 00:35] – [sharenfs] boospy | ||
---|---|---|---|
Zeile 6: | Zeile 6: | ||
ZFS (ursprünglich Zettabyte File System) wird oft als Dateisystem angesehen, was im Grunde genommen ein Missverständnis darstellt. ZFS kann ein Dateisystem sein, aber beherrscht auch noch einiges mehr. Es vereint die Funktionalität eines Logical Volume Managers und eines Software-RAID mit einem Copy-on-Write-Dateisystem (COW). Das heißt, dass es (aufgrund seiner Kenntnisse der Festplattenbelegung) effizienter als jedes Hardware-RAID arbeitet, Daten-Integrität per Transaktionen ähnlich wie bei relationalen Datenbanken sichert und im Falle von Daten-Redundanz (Mehrfachspeicherung) sogar selbständig Daten repariert. | ZFS (ursprünglich Zettabyte File System) wird oft als Dateisystem angesehen, was im Grunde genommen ein Missverständnis darstellt. ZFS kann ein Dateisystem sein, aber beherrscht auch noch einiges mehr. Es vereint die Funktionalität eines Logical Volume Managers und eines Software-RAID mit einem Copy-on-Write-Dateisystem (COW). Das heißt, dass es (aufgrund seiner Kenntnisse der Festplattenbelegung) effizienter als jedes Hardware-RAID arbeitet, Daten-Integrität per Transaktionen ähnlich wie bei relationalen Datenbanken sichert und im Falle von Daten-Redundanz (Mehrfachspeicherung) sogar selbständig Daten repariert. | ||
- | * Systemgrundlage: | + | * Systemgrundlage: |
* ZFSutils: 0.6.4.3 / 0.6.5-pve6~jessie | * ZFSutils: 0.6.4.3 / 0.6.5-pve6~jessie | ||
- | * Kernel: 3.10.0-10-pve / 4.2.3-2-pve | + | * Kernel: 3.10.0-10-pve / 4.2.3-2-pve / 4.10.17-4-pve |
Alles was unter diese Version liegt, ist entweder durch Bugs, oder fehlende Features wie z.B. das ZFS die Geräte per ID anspricht, nicht brauchbar. | Alles was unter diese Version liegt, ist entweder durch Bugs, oder fehlende Features wie z.B. das ZFS die Geräte per ID anspricht, nicht brauchbar. | ||
Zeile 282: | Zeile 282: | ||
| mount / | | mount / | ||
| zpool import -d / | | zpool import -d / | ||
+ | | zpool import v-machines neuepoolname| importiert einen bestehenden Pool mit einem anderen Namen | | ||
| zfs list -t snapshot| zeigt alle Snapshots an | | | zfs list -t snapshot| zeigt alle Snapshots an | | ||
| zpool set listsnapshots=on rpool| zeigt bei "zfs list" auch snapshots an | | | zpool set listsnapshots=on rpool| zeigt bei "zfs list" auch snapshots an | | ||
| zfs list -r -t snapshot -o name, | | zfs list -r -t snapshot -o name, | ||
| zfs get volsize v-machines/ | | zfs get volsize v-machines/ | ||
- | | zfs set volsize=32g v-machines/ | + | | zfs set volsize=32g v-machines/ |
- | | zfs create -V 5gb tank/vol| legt ein neues zvol mit einer maximalen Größe von 5G an | | + | | zfs create -V 5gb tank/vol| legt ein neues zvol mit einer maximalen Größe von 5G an \\ (Blockdevice) |
| zfs set quota=50g tank/ | | zfs set quota=50g tank/ | ||
| zfs rename -p rpool/test rpool/ | | zfs rename -p rpool/test rpool/ | ||
| zfs list -o space | Speicherauslastung inkl. wie viel für Snapshots verbraucht wird | | | zfs list -o space | Speicherauslastung inkl. wie viel für Snapshots verbraucht wird | | ||
- | | zfs list -t snapshot -o space | hier sieht wie viel jeder Snapshot genau benötigt | | + | | mount -t zfs -o ro v-machines/ |
- | | mount -t zfs v-machines/ | + | | zfs set primarycache=metadata pool/ |
+ | |apt install zfs-auto-snapshot | [[https:// | ||
Zeile 433: | Zeile 435: | ||
pigz -d -c / | pigz -d -c / | ||
+ | ==== Snapshot mounten und Daten rausholen ==== | ||
+ | Sehr praktisch. Um ein Snapshot zu mounten kann den normalen Mountbefehl benutzen. Z.B. | ||
+ | < | ||
+ | mount -t zfs v-machines/ | ||
+ | </ | ||
+ | Um das ganze automatisch und elegant mit ZFS zu gestalten machten den Ordner '' | ||
+ | < | ||
+ | zfs set snapdir=visible | ||
+ | </ | ||
+ | Danach wird das gewünschte Snapshot automatisch beim Zugriff auf '' | ||
Zeile 459: | Zeile 471: | ||
</ | </ | ||
+ | ===== Mit komplettem ZFSpool umziehen ===== | ||
+ | Mit einem kompletten Pool um zu ziehen ist super einfach, in Gegesatz zu nem Rsync oder ähnlichem. Zuerst macht man rekursiv ein Snapshot, danach kopiert man dem Pool auf die neuen/ | ||
+ | < | ||
+ | zfs snapshot -r oldpool@migration | ||
+ | zfs send -v -R -p oldpool@migration | ||
+ | </ | ||
===== Autoexpand ===== | ===== Autoexpand ===== | ||
Zeile 482: | Zeile 500: | ||
Das ganze ist ein wenig komplizierter da man die GPT Bootpartion beachten muss. Zuerst erstellt auf der neuen getauschten Disk eine GPT Partition: | Das ganze ist ein wenig komplizierter da man die GPT Bootpartion beachten muss. Zuerst erstellt auf der neuen getauschten Disk eine GPT Partition: | ||
| | ||
- | sgdisk -Z /dev/sdf | + | sgdisk -Z / |
+ | sgdisk -Z -o /dev/sdf # löscht auch Partitionen | ||
sgdisk -a1 -n1:34:2047 -t1:EF02 -n9:-8M:0 -t9:BF07 -n2:2048:0 -t2:BF01 -c 2:zfs /dev/sdf | sgdisk -a1 -n1:34:2047 -t1:EF02 -n9:-8M:0 -t9:BF07 -n2:2048:0 -t2:BF01 -c 2:zfs /dev/sdf | ||
zpool replace rpool 10714300945297318711 sdf2 | zpool replace rpool 10714300945297318711 sdf2 | ||
Zeile 496: | Zeile 515: | ||
9: reserved space (8MB) | 9: reserved space (8MB) | ||
+ | |||
+ | ===== Autoreplace ===== | ||
+ | Autoreplace ersetzt automatische eine defekte Platte aus einem Zpool. Hierfür ist aber ein eingener [[http:// | ||
Zeile 527: | Zeile 549: | ||
===== Kompletten RPOOL mit Proxmox recovern ===== | ===== Kompletten RPOOL mit Proxmox recovern ===== | ||
+ | https:// | ||
+ | |||
FIXME | FIXME | ||
+ | ===== sharenfs ===== | ||
+ | Nutzt man ZFS als Dateisystem ist es klug die " | ||
+ | < | ||
+ | zfs create testpool/ | ||
+ | </ | ||
+ | Für IPV6 können als Source nur mehr FQDN verwendet werden. | ||
+ | Bei einem bestehenden Dataset: | ||
+ | < | ||
+ | zfs set sharenfs=" | ||
+ | </ | ||
+ | Für eine einfache Freigabe: | ||
+ | < | ||
+ | zfs set sharenfs=on testpool/ | ||
+ | </ | ||
+ | Um eine Freigabe zu beenden: | ||
+ | < | ||
+ | zfs set sharenfs=off testpool/ | ||
+ | </ | ||
+ | Das Dataset löschen, löscht natürlich auch die Freigabe. | ||
+ | Um zu sehen welche Freigaben nun aktiv sind gibt es mehrere Möglichkeiten. Am Host selbst: | ||
+ | < | ||
+ | cat / | ||
+ | </ | ||
+ | < | ||
+ | zfs get sharenfs # kann auch mit weiteren Optionen kombiniert werden | ||
+ | </ | ||
+ | Von einem anderen Host: | ||
+ | < | ||
+ | showmount | ||
+ | </ | ||
===== Links ===== | ===== Links ===== | ||
Zeile 537: | Zeile 591: | ||
* [[https:// | * [[https:// | ||
* [[http:// | * [[http:// | ||
+ | * [[http:// | ||
Zeile 543: | Zeile 598: | ||
| | ||
zpool replace | zpool replace | ||
+ | zdb --help | ||