Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige Überarbeitung Vorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
Nächste ÜberarbeitungBeide Seiten, nächste Überarbeitung
server_und_serverdienste:linux_zfs [2018/11/05 17:07] – [Autoexpand] boospyserver_und_serverdienste:linux_zfs [2019/01/22 20:02] boospy
Zeile 517: Zeile 517:
  
 ==== Umwandeln eines Rpool Singledisk in einen Mirror inkl. Autoexpand ==== ==== Umwandeln eines Rpool Singledisk in einen Mirror inkl. Autoexpand ====
-Annahme ist hier ein Rpool mit einer Samsung EVO750. +Annahme ist hier ein Rpool mit einer Samsung EVO750. Da die Disk nicht Enterprise ist und das Wearoutlevel schon bei 90% ist, fügen wir eine Samsung SM863a als Mirror hinzu. Dann können wir beim Ausfall der EVO bequem eine weitere SM863a hinzufügen. Der zeitiger Status ist: 
 +<code> 
 +zpool status  
 +  pool: rpool 
 + state: ONLINE 
 +  scan: scrub repaired 0B in 0h3m with 0 errors on Sun Oct 14 00:27:05 2018 
 +config: 
 + 
 +        NAME        STATE     READ WRITE CKSUM 
 +        rpool       ONLINE               0 
 +          sda2      ONLINE               0 
 +</code> 
 +Rpool's könne hier nur mit den Alias "SDX" umgehen. Alle anderen "nicht Rootpools" mit ''/dev/disk/by-id''  
 +Wir haben nun unsere neue SSD in's laufende System gehängt. Diese scheint mit ''sdb'' auf. Wir konfigurieren diese DISK mit GPT schauen das wie oben beschrieben auch Autoexpand am Pool aktiviert ist und partitionieren diese richtig: 
 +<code> 
 +sgdisk -a1 -n1:34:2047 -t1:EF02 -n9:-8M:0 -t9:BF07 -n2:2048:0 -t2:BF01 -c 2:zfs /dev/sdb 
 +Setting name! 
 +partNum is 1 
 +REALLY setting name! 
 +The operation has completed successfully. 
 +</code> 
 +Mit ''partx -s /dev/sdb'' sehen wir das die Disk nun richtig konfiguriert wurde: 
 +<code> 
 +partx -s /dev/sdb 
 +NR     START       END   SECTORS   SIZE NAME UUID 
 +        34      2047      2014  1007K      abdb3664-8f24-4f9c-b69f-48041a12dd2a 
 +      2048 468845709 468843662 223,6G zfs  54a8aa0b-3e13-4e05-b8f6-3bcc1a5452d5 
 + 9 468845710 468862094     16385     8M      8dfaf865-cv4f-4931-86ba-9a9a274d3ead 
 +</code> 
 +Nun können wir die neue Disk zu unserer alten dazu hängen: 
 +<code> 
 +zpool attach  -o ashift=12 -f  rpool  /dev/sda2 /dev/sdb2 
 +Make sure to wait until resilver is done before rebooting. 
 +</code> 
 +Nach erfolgreichen resilvern, sieht unser Pool nun so aus: 
 +<code> 
 +zpool status          
 +  pool: rpool 
 + state: ONLINE 
 +  scan: resilvered 31,9G in 0h2m with 0 errors on Mon Nov  5 17:02:53 2018 
 +config: 
 + 
 +        NAME        STATE     READ WRITE CKSUM 
 +        rpool       ONLINE               0 
 +          mirror-0  ONLINE               0 
 +            sda2    ONLINE               0 
 +            sdb2    ONLINE               0 
 + 
 +errors: No known data errors 
 +</code> 
 +Danach noch Grub installieren und fertig.  
 +<code> 
 +grub-install /dev/sdb 
 +</code> 
 +Nachdem wir dann später mal die EVO getauscht haben, wird der Pool automatisch auf die 240GB vergrößert.  
 + 
 ===== Autoreplace ===== ===== Autoreplace =====
 Autoreplace ersetzt automatische eine defekte Platte aus einem Zpool. Hierfür ist aber ein eingener [[http://www.informit.com/articles/article.aspx?p=1433052&seqNum=7|Hotsparepool]] erforderlich.  Autoreplace ersetzt automatische eine defekte Platte aus einem Zpool. Hierfür ist aber ein eingener [[http://www.informit.com/articles/article.aspx?p=1433052&seqNum=7|Hotsparepool]] erforderlich. 
Zeile 586: Zeile 642:
 showmount  -e hostname.local showmount  -e hostname.local
 </code> </code>
 +
 +===== Swap =====
 +Swap direkt auf ZFS erstellen. Empfohlen, genug RAM, oder Swap auf einem nicht ZFS-Filesystem. 
 +<code>
 +zfs create -V 8G -b $(getconf PAGESIZE) -o compression=zle -o logbias=throughput -o sync=always -o primarycache=metadata -o secondarycache=none -o com.sun:auto-snapshot=false v-machines/swap
 +</code>
 +
 ===== Links ===== ===== Links =====