Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige Überarbeitung Vorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
Nächste ÜberarbeitungBeide Seiten, nächste Überarbeitung
server_und_serverdienste:linux_zfs [2018/01/17 23:34] boospyserver_und_serverdienste:linux_zfs [2018/11/05 17:03] – [Autoexpand] boospy
Zeile 160: Zeile 160:
   errors: No known data errors   errors: No known data errors
  
 +Nachdem dies ein Rpool ist, danach nicht vergessen Grub auf allen hinzugefügten Platten zu installieren. 
  
 ===== Korrupte Daten ===== ===== Korrupte Daten =====
Zeile 282: Zeile 282:
 | mount /dev/zvol/v-machines/home/vm-<Nummer>-disk-<Nummer> /<mountpoint>| Hängt eine VMdisk vom Zpool "v-machines" am gewünschten Mountpoint ein. | | mount /dev/zvol/v-machines/home/vm-<Nummer>-disk-<Nummer> /<mountpoint>| Hängt eine VMdisk vom Zpool "v-machines" am gewünschten Mountpoint ein. |
 | zpool import -d /dev/disk/by-id/ -a| ersetzt SDX durch die ID der Festplatte | | zpool import -d /dev/disk/by-id/ -a| ersetzt SDX durch die ID der Festplatte |
 +| zpool import v-machines neuepoolname| importiert einen bestehenden Pool mit einem anderen Namen |
 | zfs list -t snapshot| zeigt alle Snapshots an | | zfs list -t snapshot| zeigt alle Snapshots an |
 | zpool set listsnapshots=on rpool| zeigt bei "zfs list" auch snapshots an | | zpool set listsnapshots=on rpool| zeigt bei "zfs list" auch snapshots an |
Zeile 292: Zeile 293:
 | zfs list -o space | Speicherauslastung inkl. wie viel für Snapshots verbraucht wird | | zfs list -o space | Speicherauslastung inkl. wie viel für Snapshots verbraucht wird |
 | mount -t zfs -o ro v-machines/home@rep_home_2017-07-05_00:36:48 /mnt/zfsmountsnap | Snapshot mounten | | mount -t zfs -o ro v-machines/home@rep_home_2017-07-05_00:36:48 /mnt/zfsmountsnap | Snapshot mounten |
 +| zfs set primarycache=metadata pool/dataset | Optimal für Backups, hier wird der Ramverbrauch erheblich reduziert |
 +|apt install zfs-auto-snapshot | [[https://forum.proxmox.com/threads/zfs-automatic-snapshot-including-ram.43057/#post-207054|Infolink]] |
  
  
Zeile 468: Zeile 471:
 </code> </code>
  
 +===== Mit komplettem ZFSpool umziehen =====
 +Mit einem kompletten Pool um zu ziehen ist super einfach, in Gegesatz zu nem Rsync oder ähnlichem. Zuerst macht man rekursiv ein Snapshot, danach kopiert man dem Pool auf die neuen/anderen Platten.
 +<code>
 +zfs snapshot -r oldpool@migration
 +zfs send -v -R -p oldpool@migration  | zfs receive -F myfreshpool
 +</code>
  
 ===== Autoexpand ===== ===== Autoexpand =====
Zeile 495: Zeile 504:
   sgdisk -a1 -n1:34:2047 -t1:EF02 -n9:-8M:0 -t9:BF07 -n2:2048:0 -t2:BF01 -c 2:zfs /dev/sdf   sgdisk -a1 -n1:34:2047 -t1:EF02 -n9:-8M:0 -t9:BF07 -n2:2048:0 -t2:BF01 -c 2:zfs /dev/sdf
   zpool replace rpool 10714300945297318711 sdf2   zpool replace rpool 10714300945297318711 sdf2
-  grub-intall /dev/sdf+  grub-install /dev/sdf
  
 Das natürlich mit jeder Platte wiederholen. Das natürlich mit jeder Platte wiederholen.
Zeile 544: Zeile 553:
 FIXME FIXME
  
 +===== sharenfs =====
 +Nutzt man ZFS als Dateisystem ist es klug die "sharenfs" Funktion von ZFS direkt statt dem System Export zu verwenden. Da hier die zeitliche Abfolge beim Systemstart immer optimal ist. Um eine Freigabe zu erstellen inkl. eines Datasets zu erstellen bedient man sich folgendem Befehl:
 +<code>
 +zfs create testpool/testnfs -o sharenfs="rw=@hostname1.local,rw=@192.168.1.3,no_root_squash,no_subtree_check,async"
 +</code>
 +Für IPV6 können als Source nur mehr FQDN verwendet werden.
  
 +Bei einem bestehenden Dataset:
 +<code>
 +zfs set sharenfs="rw=@hostname1.local,rw=@192.168.1.3,no_root_squash,no_subtree_check,async" testpool/testnfs
 +</code>
 +Für eine einfache Freigabe:
 +<code>
 +zfs set sharenfs=on testpool/testnfs
 +</code>
 +Um eine Freigabe zu beenden:
 +<code>
 +zfs set sharenfs=off testpool/testnfs
 +</code>
 +Das Dataset löschen, löscht natürlich auch die Freigabe.
 +Um zu sehen welche Freigaben nun aktiv sind gibt es mehrere Möglichkeiten. Am Host selbst:
 +<code>
 +cat /etc/dfs/sharetab
 +</code>
 +<code>
 +zfs get sharenfs # kann auch mit weiteren Optionen kombiniert werden
 +</code>
 +Von einem anderen Host:
 +<code>
 +showmount  -e hostname.local
 +</code>
 ===== Links ===== ===== Links =====
  
Zeile 552: Zeile 591:
   *  [[https://wiki.archlinux.org/index.php/Experimenting_with_ZFS|Archlinux mit ZFS]]   *  [[https://wiki.archlinux.org/index.php/Experimenting_with_ZFS|Archlinux mit ZFS]]
   *  [[http://docs.oracle.com/cd/E24841_01/html/820-2313/gbbvf.html#gbcus|Oracle Reslivering]]   *  [[http://docs.oracle.com/cd/E24841_01/html/820-2313/gbbvf.html#gbcus|Oracle Reslivering]]
 +  * [[http://open-zfs.org/wiki/Performance_tuning|ZFS Tuning]]