Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige Überarbeitung Vorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
Nächste ÜberarbeitungBeide Seiten, nächste Überarbeitung
server_und_serverdienste:linux_zfs [2017/08/26 19:27] – [Die wichtigsten ZFS-Befehle auf einen Blick] boospyserver_und_serverdienste:linux_zfs [2018/04/30 21:45] – [Links] boospy
Zeile 6: Zeile 6:
 ZFS (ursprünglich Zettabyte File System) wird oft als Dateisystem angesehen, was im Grunde genommen ein Missverständnis darstellt. ZFS kann ein Dateisystem sein, aber beherrscht auch noch einiges mehr. Es vereint die Funktionalität eines Logical Volume Managers und eines Software-RAID mit einem Copy-on-Write-Dateisystem (COW). Das heißt, dass es (aufgrund seiner Kenntnisse der Festplattenbelegung) effizienter als jedes Hardware-RAID arbeitet, Daten-Integrität per Transaktionen ähnlich wie bei relationalen Datenbanken sichert und im Falle von Daten-Redundanz (Mehrfachspeicherung) sogar selbständig Daten repariert. ZFS (ursprünglich Zettabyte File System) wird oft als Dateisystem angesehen, was im Grunde genommen ein Missverständnis darstellt. ZFS kann ein Dateisystem sein, aber beherrscht auch noch einiges mehr. Es vereint die Funktionalität eines Logical Volume Managers und eines Software-RAID mit einem Copy-on-Write-Dateisystem (COW). Das heißt, dass es (aufgrund seiner Kenntnisse der Festplattenbelegung) effizienter als jedes Hardware-RAID arbeitet, Daten-Integrität per Transaktionen ähnlich wie bei relationalen Datenbanken sichert und im Falle von Daten-Redundanz (Mehrfachspeicherung) sogar selbständig Daten repariert.
  
-  *  Systemgrundlage: Proxmox 3.4 / 4.X+  *  Systemgrundlage: Proxmox 3.4 / 4.X / 5.0
   *  ZFSutils: 0.6.4.3 /  0.6.5-pve6~jessie   *  ZFSutils: 0.6.4.3 /  0.6.5-pve6~jessie
-  *  Kernel: 3.10.0-10-pve / 4.2.3-2-pve+  *  Kernel: 3.10.0-10-pve / 4.2.3-2-pve / 4.10.17-4-pve
  
 Alles was unter diese Version liegt, ist entweder durch Bugs, oder fehlende Features wie z.B. das ZFS die Geräte per ID anspricht, nicht brauchbar. Alles was unter diese Version liegt, ist entweder durch Bugs, oder fehlende Features wie z.B. das ZFS die Geräte per ID anspricht, nicht brauchbar.
Zeile 282: Zeile 282:
 | mount /dev/zvol/v-machines/home/vm-<Nummer>-disk-<Nummer> /<mountpoint>| Hängt eine VMdisk vom Zpool "v-machines" am gewünschten Mountpoint ein. | | mount /dev/zvol/v-machines/home/vm-<Nummer>-disk-<Nummer> /<mountpoint>| Hängt eine VMdisk vom Zpool "v-machines" am gewünschten Mountpoint ein. |
 | zpool import -d /dev/disk/by-id/ -a| ersetzt SDX durch die ID der Festplatte | | zpool import -d /dev/disk/by-id/ -a| ersetzt SDX durch die ID der Festplatte |
 +| zpool import v-machines neuepoolname| importiert einen bestehenden Pool mit einem anderen Namen |
 | zfs list -t snapshot| zeigt alle Snapshots an | | zfs list -t snapshot| zeigt alle Snapshots an |
 | zpool set listsnapshots=on rpool| zeigt bei "zfs list" auch snapshots an | | zpool set listsnapshots=on rpool| zeigt bei "zfs list" auch snapshots an |
Zeile 292: Zeile 293:
 | zfs list -o space | Speicherauslastung inkl. wie viel für Snapshots verbraucht wird | | zfs list -o space | Speicherauslastung inkl. wie viel für Snapshots verbraucht wird |
 | mount -t zfs -o ro v-machines/home@rep_home_2017-07-05_00:36:48 /mnt/zfsmountsnap | Snapshot mounten | | mount -t zfs -o ro v-machines/home@rep_home_2017-07-05_00:36:48 /mnt/zfsmountsnap | Snapshot mounten |
 +| zfs set primarycache=metadata pool/dataset | Optimal für Backups, hier wird der Ramverbrauch erheblich reduziert |
 +|apt install zfs-auto-snapshot | [[https://forum.proxmox.com/threads/zfs-automatic-snapshot-including-ram.43057/#post-207054|Infolink]] |
  
  
Zeile 468: Zeile 471:
 </code> </code>
  
 +===== Mit komplettem ZFSpool umziehen =====
 +Mit einem kompletten Pool um zu ziehen ist super einfach, in Gegesatz zu nem Rsync oder ähnlichem. Zuerst macht man rekursiv ein Snapshot, danach kopiert man dem Pool auf die neuen/anderen Platten.
 +<code>
 +zfs snapshot -r oldpool@migration
 +zfs send -v -R -p oldpool@migration  | zfs receive -F myfreshpool
 +</code>
  
 ===== Autoexpand ===== ===== Autoexpand =====
Zeile 552: Zeile 561:
   *  [[https://wiki.archlinux.org/index.php/Experimenting_with_ZFS|Archlinux mit ZFS]]   *  [[https://wiki.archlinux.org/index.php/Experimenting_with_ZFS|Archlinux mit ZFS]]
   *  [[http://docs.oracle.com/cd/E24841_01/html/820-2313/gbbvf.html#gbcus|Oracle Reslivering]]   *  [[http://docs.oracle.com/cd/E24841_01/html/820-2313/gbbvf.html#gbcus|Oracle Reslivering]]
 +  * [[http://open-zfs.org/wiki/Performance_tuning|ZFS Tuning]]
  
  
Zeile 558: Zeile 568:
      
   zpool replace  -o ashift=9 zfs_raid <virtual device> /dev/sdd1   zpool replace  -o ashift=9 zfs_raid <virtual device> /dev/sdd1
 +  zdb --help