diff --git a/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml b/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml index 3cb4f6d1bd..4a9a8da057 100644 --- a/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml +++ b/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml @@ -57,7 +57,7 @@ Das Z-Dateisystem, oder kurz ZFS, ist ein fortgeschrittenes Dateisystem, das - entwickelt wurde, um viele der grossen Probleme in vorherigen + entwickelt wurde, um viele der großen Probleme in vorherigen Entwicklungen zu überwinden. Ursprünglich von &sun; entworfen, wird die weitere Entwicklung @@ -65,7 +65,7 @@ xlink:href="http://open-zfs.org">OpenZFS Projekt vorangetrieben. - ZFS hat drei grosse Entwurfsziele: + ZFS hat drei große Entwurfsziele: @@ -85,7 +85,7 @@ einem Pool zusammengefasst und der Speicherplatz wird von diesem gemeinsam genutzten Pool allokiert. Der Speicherplatz steht allen Dateisystemen zur Verfügung und kann durch das - Hinzufügen von neuen Speichermedien vergrössert werden. + Hinzufügen von neuen Speichermedien vergrößert werden. @@ -95,7 +95,7 @@ hauptspeicherbasierter Zwischenspeicher für Leseanfragen. Auf einer zweiten Stufe kann ein plattenbasierter L2ARC-Lesezwischenspeicher - hinzugefügt werden. Zusätzlich ist auch noch ein + hinzugefügt werden. Zusätzlich ist auch noch ein plattenbasierter, synchroner Schreibzwischenspeicher verfügbar, der sog. ZIL. @@ -114,7 +114,7 @@ Dateisystem ist. Durch die Kombination von traditionell getrennten Rollen von Volumenmanager und Dateisystem ist ZFS mit einzigartigen Vorteilen ausgestattet. - Das Dateisystem besitzt jetzt Kentniss von der zugrundeliegenden + Das Dateisystem besitzt jetzt Kenntnis von der zugrundeliegenden Struktur der Speichermedien. Traditionelle Dateisysteme konnten nur auf einer einzigen Platte gleichzeitig angelegt werden. Falls es zwei Festplatten gab, mussten auch zwei getrennte @@ -127,20 +127,20 @@ Fall von Software-RAID-Lösungen, wie die, die von GEOM bereitgestellt werden, war das UFS-Dateisystem der Ansicht, dass es auf nur - einem einzigen Gerät angelegt wurde. ZFS' + einem einzigen Gerät angelegt wurde. ZFS's Kombination eines Volumenmanagers und eines Dateisystems löst dies und erlaubt das Erstellen von vielen Dateisystemen, die sich alle den darunterliegenden Pool aus verfügbarem Speicher - teilen. Einer der grössten Vorteile von ZFS' - Kentniss des physikalischen Layouts der Platten ist, dass + teilen. Einer der größten Vorteile von ZFS's + Kenntnis des physikalischen Layouts der Platten ist, dass existierende Dateisysteme automatisch wachsen können, wenn zusätzliche Platten zum Pool hinzugefügt werden. Dieser neue Speicherplatz wird dann allen Dateisystemen zur Verfügung gestellt. ZFS besitzt ebenfalls eine Menge an unterschiedlichen Eigenschaften, die für jedes Dateisystem - angepasst werden könnnen, was viele Vorteile bringt, wenn man + angepasst werden können, was viele Vorteile bringt, wenn man unterschiedliche Dateisysteme und Datasets anlegt, anstatt ein - einziges, monolitisches Dateisystem zu erzeugen. + einziges, monolithisches Dateisystem zu erzeugen. @@ -170,7 +170,7 @@ Pools mit einer Platte Um einen einfachen, nicht-redundanten Pool mit einem - einzigen Gerät anzulegen, geben Sie folgendes ein: + einzigen Gerät anzulegen, geben Sie folgendes ein: &prompt.root; zpool create example /dev/da0 @@ -208,7 +208,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 23:12 .. Das example/compressed-Dataset ist nun ein komprimiertes ZFS-Dateisystem. - Versuchen Sie, ein paar grosse Dateien auf + Versuchen Sie, ein paar große Dateien auf /example/compressed zu kopieren. Deaktivieren lässt sich die Komprimierung durch: @@ -217,7 +217,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 23:12 .. Um ein Dateisystem abzuhängen, verwenden Sie zfs umount und überprüfen Sie dies - anschliessend mit df: + anschließend mit df: &prompt.root; zfs umount example/compressed &prompt.root; df @@ -251,8 +251,8 @@ example on /example (zfs, local) example/compressed on /example/compressed (zfs, local) Nach der Erstellung können ZFS-Datasets - wie jedes undere Dateisystem verwendet werden. Jedoch sind - jede Menge undere Besonderheiten verfügbar, die individuell + wie jedes andere Dateisystem verwendet werden. Jedoch sind + jede Menge andere Besonderheiten verfügbar, die individuell auf Dataset-Basis eingestellt sein können. Im Beispiel unten wird ein neues Dateisystem namens data angelegt. Wichtige Dateien werden dort abgespeichert, deshalb @@ -284,8 +284,8 @@ example/data 17547008 0 17547008 0% /example/data Partitionen und erlaubt es mehreren Dateisystemen den gleichen Pool zu belegen. - Um das Dateisystem zu zerstören und anschliessend den - Pool, da dieser nicht mehr benötigt wird, geben Sie + Um das Dateisystem und anschließend den Pool zu + zerstören, wenn dieser nicht mehr benötigt wird, geben Sie ein: &prompt.root; zfs destroy example/compressed @@ -314,7 +314,7 @@ example/data 17547008 0 17547008 0% /example/data &sun; empfiehlt, dass die Anzahl der Geräte in einer RAID-Z Konfiguration zwischen drei und neun beträgt. Für Umgebungen, die einen einzelnen Pool - enötigen, der aus 10 oder mehr Platten besteht, sollten Sie + benötigen, der aus 10 oder mehr Platten besteht, sollten Sie in Erwägung ziehen, diesen in kleinere RAID-Z-Gruppen aufzuteilen. Falls nur zwei Platten verfügbar sind und Redundanz benötigt wird, @@ -349,7 +349,7 @@ example/data 17547008 0 17547008 0% /example/data Daten von Anwendern werden nun auf dem frisch erstellten /storage/home abgelegt. Überprüfen Sie dies durch das Anlegen eines neuen Benutzers und das - anschliessende Anmelden als dieser Benutzer. + anschließende Anmelden als dieser Benutzer. Versuchen Sie, einen Dateisystemschnappschuss anzulegen, den Sie später wieder zurückrollen können: @@ -377,11 +377,11 @@ example/data 17547008 0 17547008 0% /example/data &prompt.root; ls /storage/home/.zfs/snapshot - Es ist möglich, ein Skript zu schreiben, um regelmässig + Es ist möglich, ein Skript zu schreiben, um regelmäßig Schnappschüsse von Benutzerdaten anzufertigen. Allerdings - verbrauchen Schnappschüsse über lange Zeit eine grosse Menge + verbrauchen Schnappschüsse über lange Zeit eine große Menge an Speicherplatz. Der zuvor angelegte Schnappschuss kann - durch folgendes Kommundo wieder entfernt werden: + durch folgendes Kommando wieder entfernt werden: &prompt.root; zfs destroy storage/home@08-30-08 @@ -414,8 +414,8 @@ storage/home 26320512 0 26320512 0% /home abgeschlossen. Tägliche Informationen über den Status der erstellten Dateisysteme können als Teil des nächtlichen &man.periodic.8;-Berichts generiert werden. Fügen Sie dazu - die folgende Zeile in die Datei - /etc/periodic.conf ein: + die folgende Zeile in /etc/periodic.conf + ein: daily_status_zfs_enable="YES" @@ -424,7 +424,7 @@ storage/home 26320512 0 26320512 0% /home <acronym>RAID-Z</acronym> wiederherstellen Jedes Software-RAID besitzt eine - Methode, um den Zustund (state) zu + Methode, um den Zustand (state) zu überprüfen. Der Status von RAID-Z Geräten wird mit diesem Befehl angezeigt: @@ -437,8 +437,8 @@ storage/home 26320512 0 26320512 0% /home all pools are healthy Wenn es ein Problem gibt, womöglich ist eine Platte - im Zustund Offline, - dann wird der Poolzustund ähnlich wie dieser aussehen: + im Zustand Offline, + dann wird der Poolzustand ähnlich wie dieser aussehen: pool: storage state: DEGRADED @@ -520,12 +520,12 @@ errors: No known data errors &prompt.root; zpool scrub storage Die Laufzeit einer Überprüfung hängt ab von der Menge an - Daten, die gespeichert sind. Grössere Mengen an Daten + Daten, die gespeichert sind. Größere Mengen an Daten benötigen proportional mehr Zeit zum überprüfen. Diese Überprüfungen sind sehr I/O-intensiv und es kann auch nur eine Überprüfung zur gleichen Zeit durchgeführt werden. Nachdem eine Prüfung beendet ist, kann - der Status mit dem Unterkommundo status + der Status mit dem Unterkommando status angezeigt werden: &prompt.root; zpool status storage @@ -559,7 +559,7 @@ errors: No known data errors Administration von ZFS ist unterteilt zwischen zwei Hauptkommandos. Das - zpool-Wekzeug steuert die Operationen des + zpool-Werkzeug steuert die Operationen des Pools und kümmert sich um das Hinzufügen, entfernen, ersetzen und verwalten von Platten. Mit dem zfs-Befehl können @@ -585,7 +585,7 @@ errors: No known data errors gestatten, sowie stripes, die zu Spiegeln umgewandelt werden können, indem man zusätzliche Platten zum vdev anhängt. Obwohl weitere vdevs eingefügt werden können, um einen Pool zu - vergrössern, kann das Layout des Pools nach dem Anlegen nicht + vergrößern, kann das Layout des Pools nach dem Anlegen nicht mehr verändert werden. Stattdessen müssen die Daten gesichert, der Pool zerstört und danach neu erstellt werden. @@ -641,11 +641,11 @@ errors: No known data errors Partition anstatt einer ganzen Platte verwendet wird. Durch den Einsatz von Partitionen kann der Administrator die Platten unter provisionieren, indem weniger als - die volle Kapazität Verwendung findet. Wenn in Zukunft ein - Ersatzfestplatte mit der gleichen Grösse als die + die volle Kapazität Verwendung findet. Wenn in Zukunft eine + Ersatzfestplatte mit der gleichen Größe als die Originalplatte eine kleinere Kapazität aufweist, passt die - kleinere Partition immer noch passen und die Ersatzplatte - immer noch verwendet werden. + kleinere Partition immer noch und die Ersatzplatte kann immer + noch verwendet werden. Erstellen eines RAID-Z2-Pools mit @@ -708,10 +708,10 @@ errors: No known data errors zpool attach können auch zusätzliche Platten zu einer Spiegelgruppe eingefügt werden, was die Redundanz und Lesegeschwindigkeit steigert. Wenn die Platten, - aus denen der Pool besteht, aus partitioniert sind, - replizieren Sie das Layout der ersten Platte auf die Zweite - und verwenden dann gpart backup, gefolgt - von gpart restore, um diesen Vorgang + aus denen der Pool besteht, partitioniert sind, + replizieren Sie das Layout der ersten Platte auf die Zweite. + Verwenden Sie dazu gpart backup und + gpart restore, um diesen Vorgang einfacher zu gestalten. Umwandeln eines (stripe) vdevs namens @@ -780,7 +780,7 @@ errors: No known data errors Zusätzliche vdevs bieten höhere Geschwindigkeit, indem Schreibvorgänge über die vdevs verteilt werden. Jedes vdev ist dafür verantwortlich, seine eigene Redundanz - sicherzustellen. Es ist möglich, aber nicht empfohlen, + sicherzustellen. Es ist möglich, aber nicht empfehlenswert, vdev-Arten zu mischen, wie zum Beispiel mirror und RAID-Z. Durch das Einfügen eines nicht-redundanten vdev zu einem @@ -920,21 +920,21 @@ errors: No known data errors Wenn ein Fehler erkannt wurde, werden die Lese-, Schreib- oder Prüfsummenzähler erhöht. Die Fehlermeldung kann - beseitigt und der Zähler zurückgesetzt werden mit + beseitigt und der Zähler mit zpool clear - mypool. Den - Fehlerzustand zurückzusetzen kann wichtig sein, wenn - automatisierte Skripte ablaufen, die den Administrator + mypool zurückgesetzt + werden. Den Fehlerzustand zurückzusetzen kann wichtig sein, + wenn automatisierte Skripte ablaufen, die den Administrator informieren, sobald der Pool Fehler anzeigt. Weitere Fehler werden nicht gemeldet, wenn der alte Fehlerbericht nicht entfernt wurde. - Ein defektes Gerät entfernen + Ein funktionierendes Gerät ersetzen Es gibt eine Reihe von Situationen, in denen es nötig - wird, eine defekte Platte mit einer anderen auszutauschen. + ist, eine Platte mit einer anderen auszutauschen. Wenn eine funktionierende Platte ersetzt wird, hält der Prozess die alte Platte während des Ersetzungsvorganges noch aktiv. Der Pool wird nie den Zustand zpool replace auf die Neue übertragen. Nachdem die Operation abgeschlossen ist, wird die alte Platte vom vdev getrennt. Falls die neue Platte grösser ist als die - alte Platte , ist es möglich den Pool zu vergrössern, um den + alte Platte , ist es möglich den Pool zu vergrößern, um den neuen Platz zu nutzen. Lesen Sie dazu Einen Pool vergrössern. + linkend="zfs-zpool-online">Einen Pool vergrößern. Ersetzen eines funktionierenden Geräts in einem Pool: @@ -1031,10 +1031,10 @@ errors: No known data errors Falls das vdev keine Redundanz besitzt oder wenn mehrere Geräte ausgefallen sind und es nicht genug Redundanz gibt, um - zu kompensieren, geht der Pool in den Zustand faulted über. Wenn eine - ausreichende Anzahl von Geräten nicht wieder an den Pool - angeschlossen werden können, fällt der Pool aus und die Daten + dies zu kompensieren, geht der Pool in den Zustand faulted über. Wenn keine + ausreichende Anzahl von Geräten wieder an den Pool + angeschlossen wird, fällt der Pool aus und die Daten müssen von Sicherungen wieder eingespielt werden. Wenn eine defekte Platte ausgewechselt wird, wird der Name @@ -1102,12 +1102,12 @@ errors: No known data errors Einen Pool überprüfen - Es wird empfohlen, dass Pools regelmässig geprüft (Es wird empfohlen, dass Pools regelmäßig geprüft (scrubbed) werden, idealerweise mindestens einmal pro Monat. Der scrub-Vorgang ist beansprucht die Platte sehr und reduziert die Geschwindigkeit während er läuft. - Vermeiden Sie Zeiten, in denen grosser Bedarf besteht, wenn + Vermeiden Sie Zeiten, in denen großer Bedarf besteht, wenn Sie scrub starten oder benutzen Sie vfs.zfs.scrub_delay, um die relative Priorität vom scrub @@ -1158,7 +1158,7 @@ errors: No known data errors welche die Daten überprüfen und reparieren. Diese Kommandos benötigen einige Zeit und in gravierenden Fällen muss ein Administrator manuelle Entscheidungen treffen, welche - Reparaturoperation vorgenommen werden soll. Wenn + Reparaturoperation vorgenommen werden soll. Wenn ZFS einen defekten Datenblock mit einer Prüfsumme erkennt, die nicht übereinstimmt, versucht es die Daten von der gespiegelten Platte zu lesen. Wenn diese Platte @@ -1209,12 +1209,12 @@ SHA1 (/healer) = 2753eff56d77d9a536ece6694bf0a82740344d1f Daten an den Anfang einer Platte des Spiegels simuliert. Um ZFS daran zu hindern, die Daten so schnell zu reparieren, wie es diese entdeckt, wird der Pool vor der - Veränderung exportiert und anschliessend wieder + Veränderung exportiert und anschließend wieder importiert. Dies ist eine gefährliche Operation, die wichtige Daten - zerstören kann. Es wird hier nur zu Demonstrationszwecken + zerstören kann. Es wird hier nur zu Demonstrationszwecken gezeigt und sollte nicht während des normalen Betriebs des Pools versucht werden. Dieses vorsätzliche Korrumpierungsbeispiel sollte auf gar keinen Fall auf einer @@ -1341,10 +1341,10 @@ errors: No known data errors Nach der scrub-Operation und der anschliessenden Synchronisation der Daten von ada0 nach - ada1, kann die Fehlermeldun vom - Poolstatus bereinigt - werden durch die Eingabe von - zpool clear. + ada1, kann die Fehlermeldung vom + Poolstatus durch die Eingabe von + zpool clear + bereinigt werden. &prompt.root; zpool clear healer &prompt.root; zpool status healer @@ -1361,7 +1361,7 @@ config: errors: No known data errors - Der Pool ist jetzt wieder in einen voll funktionsfähigen + Der Pool ist jetzt wieder in einem voll funktionsfähigen Zustand versetzt worden und alle Fehler wurden beseitigt. @@ -1369,20 +1369,20 @@ errors: No known data errors Einen Pool vergrössern - Die verwendbare Grösse eines redundant ausgelegten Pools + Die verwendbare Größe eines redundant ausgelegten Pools ist durch die Kapazität des kleinsten Geräts in jedem vdev - begrenzt. Das kleinste Gerät kann durch ein grösseres Gerät + begrenzt. Das kleinste Gerät kann durch ein größeres Gerät ersetzt werden. Nachdem eine replace oder resilver-Operation abgeschlossen wurde, kann der Pool anwachsen, um die Kapazität des neuen Geräts zu nutzen. Nehmen wir als Beispiel einen - Spiegel mit einer 1 TB und einer 2 TB Platte. Der + Spiegel mit einer 1 TB und einer 2 TB Platte. Der verwendbare Plattenplatz beträgt 1 TB. Wenn die 1 TB Platte mit einer anderen 2 TB Platte ersetzt wird, kopiert der resilver-Prozess die existierenden Daten auf die neue Platte. Da beide Geräte nun 2 TB Kapazität - besitzen, kann auch der verfügbare Plattenplatz auf die Grösse + besitzen, kann auch der verfügbare Plattenplatz auf die Größe von 2 TB anwachsen. Die Erweiterung wird durch das Kommando @@ -1416,8 +1416,8 @@ errors: No known data errors Beim Importieren eines Pool werden auch automatisch alle Datasets eingehängt. Dies ist möglicherweise nicht das - bevorzugte Verhalten und wird durch - zpool import -N verhindert. Durch + bevorzugte Verhalten und wird durch + zpool import -N verhindert. Durch zpool import -o temporäre Eigenschaften nur für diesen Import gesetzt. Mit dem Befehl zpool import altroot= ist es möglich, einen @@ -1425,10 +1425,9 @@ errors: No known data errors des Dateisystems einzubinden. Wenn der Pool zuletzt auf einem anderen System verwendet und nicht korrekt exportiert wurde, muss unter Umständen ein Import erzwungen werden durch - zpool import -f. Alle Pools lassen sich - durch zpool import -a importieren, die - nicht durch ein anderes System momemtan verwendet - werden. + zpool import -f. Alle Pools, die momentan + nicht durch ein anderes System verwendet werden, lassen sich + mit zpool import -a importieren. Alle zum Import verfügbaren Pools auflisten: @@ -1455,7 +1454,7 @@ mypool 110K 47.0G 31K /mnt/mypool Einen Pool aktualisieren - Nachdem &os; aktualisiert wurde oder wenn der Poo von + Nachdem &os; aktualisiert wurde oder wenn der Pool von einem anderen System, das eine ältere Version von ZFS einsetzt, lässt sich der Pool manuell auf den aktuellen Stand von ZFS bringen, um @@ -1574,7 +1573,7 @@ Enabled the following features on 'mypool': Der Bootcode muss auf Systemen, die von dem Pool starten, aktualisiert werden, um diese neue Version zu - unterstützen. Verwenden Sie + unterstützen. Verwenden Sie gpart bootcode auf der Partition, die den Bootcode enthält. Lesen Sie für weitere Informationen &man.gpart.8;. @@ -1585,11 +1584,11 @@ Enabled the following features on 'mypool': Aufgezeichnete Historie des Pools anzeigen Befehle, die den Pool in irgendeiner Form verändern, - werden aufgezeichnet. Diese Befehle beinhalten das Erstellen + werden aufgezeichnet. Diese Befehle beinhalten das Erstellen von Datasets, verändern von Eigenschaften oder das Ersetzen einer Platte. Diese Historie ist nützlich um nachzuvollziehen, wie ein Pool aufgebaut ist und welcher - Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die + Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die aufgezeichnete Historie wird nicht in einer Logdatei festgehalten, sondern ist Teil des Pools selbst. Das Kommando zum darstellen dieser Historie lautet passenderweise @@ -1605,17 +1604,17 @@ History for 'tank': Die Ausgabe zeigt zpool und zfs-Befehle, die ausgeführt wurden zusammen mit einem Zeitstempel. Nur Befehle, die den Pool verändern - werden aufgezeichnet. Befehle wie - zfs list sind dabei nicht enthalten. Wenn + werden aufgezeichnet. Befehle wie + zfs list sind dabei nicht enthalten. Wenn kein Name angegeben wird, erscheint die gesamte Historie aller Pools. Der Befehl zpool history kann sogar noch mehr Informationen ausgeben, wenn die Optionen oder angegeben - werden. Durch zeigt ZFS - vom Benutzer eingegebene, als auch interne Ereignisse - an. + werden. Durch zeigt + ZFS vom Benutzer eingegebene, als auch + interne Ereignisse an. &prompt.root; zpool history -i History for 'tank': @@ -1629,7 +1628,7 @@ History for 'tank': Weitere Details lassen sich durch die Angabe von entlocken. Historische Einträge werden in - einem langen Format ausgegeben, einschliesslich Informationen + einem langen Format ausgegeben, einschließlich Informationen wie der Name des Benutzers, welcher das Kommando eingegeben hat und der Hostname, auf dem die Änderung erfolgte. @@ -1642,7 +1641,7 @@ History for 'tank': Die Ausgabe zeigt, dass der Benutzer root den gespiegelten Pool mit - den beiden Platten + den beiden Platten /dev/ada0 und /dev/ada1 angelegt hat. Der Hostname myzfsbox wird @@ -1659,7 +1658,7 @@ History for 'tank': eines Pools auszugeben. Die Pool Historie liefert wertvolle Informationen, wenn Aktionen nachverfolgt werden müssen oder zur Fehlerbeseitigung mehr Informationen gebraucht - werden. + werden. @@ -1670,7 +1669,7 @@ History for 'tank': zeigt die Menge von freiem und belegtem Speicherplatz auf dem Pool an, wieviele Lese- und Schreiboperationen pro Sekunde durchgeführt werden und die aktuell verwendete - I/O-Bandbreite. Standardmässig werden alle + I/O-Bandbreite. Standardmäßig werden alle Pools in einem System überwacht und angezeigt. Ein Poolname kann angegeben werden, um die Anzeige auf diesen Pool zu beschränken. Ein einfaches Beispiel: @@ -1684,7 +1683,7 @@ data 288G 1.53T 2 11 11.3K 57.1K Um kontinuierlich die I/O-Aktivität zu überprüfen, kann eine Zahl als letzter Parameter angegeben werden, die ein Intervall in Sekunden angibt, die zwischen den - Aktulisierungen vergeben soll. Die nächste Zeile mit + Aktualisierungen vergehen soll. Die nächste Zeile mit Statistikinformationen wird dann nach jedem Intervall ausgegeben. Drücken Sie @@ -1748,29 +1747,29 @@ data 288G 1.53T 2 12 9.23K 61.5K Anders als in traditionellen Festplatten- und Volumenmanagern wird der Plattenplatz in - ZFS not + ZFS nicht vorher allokiert. Bei traditionellen Dateisystemen gibt es, nachdem der Plattenplatz partitioniert und zugeteilt wurde, keine Möglichkeit, ein zusätzliches Dateisystem hinzuzufügen, ohne eine neue Platte - anzuschliessen. Mit + anzuschließen. Mit ZFS lassen sich neue Dateisysteme zu jeder Zeit anlegen. Jedes Dataset besitzt Eigenschaften wie Komprimierung, Deduplizierung, Zwischenspeicher (caching), Quotas, genauso wie andere nützliche Einstellungen wie Schreibschutz, Unterscheidung - zwischen Gross- und Kleinschreibung, Netzwerkfreigaben und + zwischen Groß- und Kleinschreibung, Netzwerkfreigaben und einen Einhängepunkt. Datasets können ineinander verschachtelt werden und Kind-Datasets erben die Eigenschaften ihrer Eltern. - Jedes Dataset kann als eine Einheit verwaltet, + Jedes Dataset kann als eine Einheit verwaltet, delegiert, repliziert, mit Schnappschüssen versehen, in Jails gesteckt und zerstört werden. Es gibt viele Vorteile, ein separates Dataset für jede Art von Dateien anzulegen. Der - einzige Nachteil einer grossen Menge an Datasets ist, dass + einzige Nachteil einer großen Menge an Datasets ist, dass manche Befehle wie zfs list langsamer sind und dass das Einhängen von hunderten oder hunderttausenden von Datasets de &os;-Bootvorgang verzögert. @@ -1887,7 +1886,7 @@ mypool/var/tmp 152K 93.2G 152K /var/tmp Ein Volume kann mit einem beliebigen Dateisystem formatiert werden oder auch ohne ein Dateisystem als reiner - Datenspeicher zu dienen. Für den Benutzer erscheint ein + Datenspeicher fungieren. Für den Benutzer erscheint ein Volume als eine gewöhnliche Platte. Indem gewöhnliche Dateisysteme auf diesen zvols angelegt werden, ist es möglich, diese mit Eigenschaften auszustatten, @@ -1928,7 +1927,7 @@ Filesystem Size Used Avail Capacity Mounted on neuen Elternteil geerbt wird). Dieses Verhalten kann durch die Option verhindert werden. - Ein Dataset umbenennen und unter einem anderes + Ein Dataset umbenennen und unter einem anderen Elterndataset verschieben: &prompt.root; zfs list @@ -1992,11 +1991,10 @@ mypool/var/newname@new_snapshot_name 0 - 87.5K - property=value dataset fest. Die meisten Eigenschaften haben eine begrenzte Menge von gültigen - Werten. zfs get stellt diese dar und zeigt - jede mögliche Eigenschaft und gültige Werte an. Die meisten - Eigenschaften können wieder auf ihren Ausgangswert - zurückgesetzt werden über - zfs inherit. + Werten. zfs get stellt diese dar und zeigt + jede mögliche Eigenschaft und gültige Werte an. Die meisten + Eigenschaften können über zfs inherit + wieder auf ihren Ausgangswert zurückgesetzt werden. Benutzerdefinierte Eigenschaften lassen sich ebenfalls setzen. Diese werden Teil der Konfiguration des Datasets und @@ -2038,11 +2036,11 @@ tank custom:costcenter - - COW), können Schnappschüsse schnell erstellt werden durch das Aufheben der älteren Version der Daten auf der Platte. Falls kein Snapshot existiert, wird der - Speicherplatz wieder für zukünfitge Verwendung freigegeben + Speicherplatz wieder für zukünftige Verwendung freigegeben wenn Daten geschrieben oder gelöscht werden. Schnappschüsse sparen Speicherplatz, indem diese nur die Unterschiede zwischen dem momentanen Dataset und der vorherigen Version - aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets + aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets erlaubt, nicht auf individuellen Dateien oder Verzeichnissen. Wenn ein Schnappschuss eines Datasets erstellt wird, wird alles was darin enthalten ist, dupliziert. Das beinhaltet @@ -2057,14 +2055,14 @@ tank custom:costcenter - - eine Anwendung Dateien auf mehreren Datasets ablegt, die miteinander in Verbindung stehen oder voneinander abhängig sind. Ohne Schnappschüsse würde ein Backup Kopien dieser - Dateien zu unterschiedlichen Zeitpunkten enthalten. + Dateien zu unterschiedlichen Zeitpunkten enthalten. Schnappschüsse in ZFS bieten eine Vielzahl von Eigenschaften, die selbst in anderen Dateisystemen mit Schnappschussfunktion nicht vorhanden sind. Ein typisches Beispiel zur Verwendung von Schnappschüssen ist, den momentanen Stand des Dateisystems zu sichern, - wenn eine riskante Aktion wie das Installieren von Softwre + wenn eine riskante Aktion wie das Installieren von Software oder eine Systemaktualisierung durchgeführt wird. Wenn diese Aktion fehlschlägt, so kann der Schnappschuss zurückgerollt werden und das System befindet sich wieder in dem gleichen @@ -2073,11 +2071,11 @@ tank custom:costcenter - - Schnappschuss gelöscht werden, um Speicherplatz frei zu geben. Ohne Schnappschüsse, wird durch ein fehlgeschlagenes Update eine Wiederherstellung der Sicherung fällig, was oft mühsam - und zeitaufwändig ist, ausserdem ist währenddessen das System + und zeitaufwändig ist, außerdem ist währenddessen das System nicht verwendbar. Schnappschüsse lassen sich schnell und mit wenig bis gar keiner Ausfallzeit zurückrollen, selbst wenn das System im normalen Betrieb läuft. Die Zeitersparnis - ist enorm, wenn mehrere Terabyte grosse Speichersysteme + ist enorm, wenn mehrere Terabyte große Speichersysteme eingesetzt werden und viel Zeit für das Kopieren der Daten vom Sicherungssystem benötigt wird. Schnappschüsse sind jedoch keine Ersatz für eine Vollsicherung des Pools, können jedoch @@ -2161,12 +2159,12 @@ mypool/usr/home@my_recursive_snapshot 0 - 184K - Schnappschüsse in COW Manier funktionieren. Sie zeichnen nur die Änderungen (delta) auf, die währenddessen - enstanden sind und nicht noch einmal den gesamten Inhalt des - Dateisystems. Das bedeutet, dass Schnappschüsse nur wenig - Speicherplatz benötigen, wenn nur kleine Änderungen + entstanden sind und nicht noch einmal den gesamten Inhalt + des Dateisystems. Das bedeutet, dass Schnappschüsse nur + wenig Speicherplatz benötigen, wenn nur kleine Änderungen vorgenommen werden. Der Speicherverbrauch kann sogar noch deutlicher gemacht werden, wenn eine Datei auf das Dataset - kopiert wird und anschliessend ein zweiter Schnappschuss + kopiert wird und anschließend ein zweiter Schnappschuss angelegt wird: &prompt.root; cp /etc/passwd /var/tmp @@ -2180,7 +2178,7 @@ mypool/var/tmp@after_cp 0 - 118K - Der zweite Schnappschuss enthält nur die Änderungen am Dataset, die nach der Kopieraktion gemacht wurden. Dies bedeutet enorme Einsparungen von Speicherplatz. Beachten - Sie, dass sich die Grösse des Schnappschusses + Sie, dass sich die Größe des Schnappschusses mypool/var/tmp@my_recursive_snapshot in der Spalte USED ebenfalls geändert hat, um die Änderungen von sich selbst und dem @@ -2250,7 +2248,7 @@ M /var/tmp/ Vergleicht man die Ausgabe mit der Tabelle, wird klar, dass passwd - hinzugefügt wurde, nachdem der Schnappschuss + hinzugefügt wurde, nachdem der Schnappschuss mypool/var/tmp@my_recursive_snapshot erstellt wurde. Das resultierte ebenfalls in einer Änderung am darüberliegenden Verzeichnis, das unter @@ -2278,10 +2276,11 @@ M /var/tmp/ Ein Administrator, der für die Sicherung zuständig ist, kann zwei Schnappschüsse miteinander vergleichen, die vom - sendenen Host empfangen wurden, um festzustellen, welche - Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu den - Abschnitt Replication - um weitere Informationen zu erhalten. + sendenden Host empfangen wurden, um festzustellen, welche + Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu + den Abschnitt Replication um weitere + Informationen zu erhalten. @@ -2290,7 +2289,7 @@ M /var/tmp/ Wenn zumindest ein Schnappschuss vorhanden ist, kann dieser zu einem beliebigen Zeitpunkt zurückgerollt werden. In den meisten Fällen passiert dies, wenn der aktuelle - Zustand des Datasets nicht mehr benötigt wurd und eine + Zustand des Datasets nicht mehr benötigt wird und eine ältere Version bevorzugt wird. Szenarien wie lokale Entwicklungstests, die fehlgeschlagen sind, defekte Systemaktualisierungen, welche die Funktionalität des @@ -2309,7 +2308,7 @@ M /var/tmp/ dies passiert, ist das Dataset immer noch aktiv und erreichbar ohne dass eine Ausfallzeit nötig wäre. Sobald der Schnappschuss zurückgerollt wurde, besitzt das Dataset - den gleichen Zustand, den es besass, als der Schnappschuss + den gleichen Zustand, den es besaß, als der Schnappschuss angelegt wurde. Alle anderen Daten in diesem Dataset, die nicht Teil des Schnappschusses sind, werden verworfen. Einen Schnappschuss des aktuellen Zustandes des Datasets vor @@ -2318,9 +2317,9 @@ M /var/tmp/ der Benutzer vor und zurück zwischen den Schnappschüssen springen, ohne wertvolle Daten zu verlieren. - Im ersten Beispiel wird en Schnappschuss aufgrund eines + Im ersten Beispiel wird ein Schnappschuss aufgrund eines unvorsichtigen rm-Befehls zurückgerollt, - der zuviele Daten gelöscht hat, als vorgesehen. + der mehr Daten gelöscht hat, als vorgesehen. &prompt.root; zfs list -rt all mypool/var/tmp NAME USED AVAIL REFER MOUNTPOINT @@ -2339,7 +2338,7 @@ vi.recover Dateien gelöscht wurden und möchte diese zurück haben. ZFS bietet eine einfache Möglichkeit, diese durch zurückrollen zurück zu bekommen, allerdings nur, - wenn Schnappschüsse von wichtigen Daten regelmässig angelegt + wenn Schnappschüsse von wichtigen Daten regelmäßig angelegt werden. Um die Dateien zurückzuerhalten und vom letzten Schnappschuss wieder zu beginnen, geben Sie ein: @@ -2369,9 +2368,9 @@ mypool/var/tmp@diff_snapshot zwischen dem momentanen Stand des Datasets und dem Schnappschuss, zu dem der Benutzer zurückrollen möchte, existieren. Um das Zurückrollen durchzuführen, müssen die - Schnappschüsse gelöscht werden. ZFS kann + Schnappschüsse gelöscht werden. ZFS kann nicht alle Änderungen zwischen verschiedenen Zuständen - eines Datasets verfolgen, da Schnappschüsse zur gelesen + eines Datasets verfolgen, da Schnappschüsse nur gelesen werden können. ZFS wird nicht die betroffenen Schnappschüsse löschen, es sei denn, der Benutzer verwendet die Option , um @@ -2400,7 +2399,7 @@ vi.recover Schnappschüsse sind unter einem versteckten Verzeichnis unter dem Eltern-Dataset eingehängt: .zfs/snapshots/snapshotname. - Standardmässig werden diese Verzeichnisse nicht von einem + Standardmäßig werden diese Verzeichnisse nicht von einem gewöhnlichen ls -a angezeigt. Obwohl diese Verzeichnisse nicht angezeigt werden, sind diese trotzdem vorhanden und der Zugriff darauf erfolgt wie auf @@ -2508,7 +2507,7 @@ cp: /var/tmp/.zfs/snapshot/after_cp/rc.conf: Read-only file system Schnappschusses. Um diese Klon-Funktionalität zu demonstrieren, wird dieses - Beispiel-Dataset verwendet: + Beispiel-Dataset verwendet: &prompt.root; zfs list -rt all camino/home/joe NAME USED AVAIL REFER MOUNTPOINT @@ -2548,7 +2547,7 @@ usr/home/joenew 1.3G 31k 1.3G 0% /usr/home/joenew Eigenschaft namens origin auf. Sobald die Abhängigkeit zwischen dem Schnappschuss und dem Klon durch das Befördern des Klons mittels zfs promote - entfernt wurde, wird auch die + entfernt wurde, wird auch die origin-Eigenschaft des Klons entfernt, da es sich nun um ein eigenständiges Dataset handelt. Dieses Beispiel demonstriert dies: @@ -2584,14 +2583,14 @@ usr/home/joe 1.3G 128k 1.3G 0% /usr/home/joe Der geklonte Schnappschuss wird jetzt wie ein gewöhnliches Dataset behandelt. Es enthält alle Daten aus dem ursprünglichen Schnappschuss inklusive der Dateien, die - anschliessend hinzugefügt wurden, wie + anschließend hinzugefügt wurden, wie loader.conf. Klone können in unterschiedlichen Szenarien eingesetzt werden, um nützliche Eigenschaften für ZFS-Anwender zur Verfügung zu stellen. Zum Beispiel können Jails als Schnappschüsse bereitgestellt werden, die verschiedene Arten von installierten Anwendungen anbieten. Anwender können diese Schnappschüsse klonen und - ihre eigenen Anwendungen nach belieben hinzufügen. Sobald + ihre eigenen Anwendungen nach Belieben hinzufügen. Sobald sie mit den Änderungen zufrieden sind, können die Klone zu vollständigen Datasets ernannt werden und dem Anwender zur Verfügung gestellt werden, als würde es sich um echte @@ -2606,7 +2605,7 @@ usr/home/joe 1.3G 128k 1.3G 0% /usr/home/joe Daten auf einem einzigen Pool an einem Platz aufzubewahren, setzt diese dem Risiko aus, gestohlen oder Opfer von Naturgewalten zu werden, sowie menschlichem - Versagen auszusetzen. Regelmässige Sicherungen des gesamten + Versagen auszusetzen. Regelmäßige Sicherungen des gesamten Pools ist daher unerlässlich. ZFS bietet eine Reihe von eingebauten Serialisierungsfunktionen an, die in der Lage ist, eine Repräsentation der Daten als Datenstrom @@ -2630,8 +2629,8 @@ backup 960M 77K 896M 0% 1.00x ONLINE - mypool 984M 43.7M 940M 4% 1.00x ONLINE - Der Pool namens mypool ist der - primäre Pool, auf den regelmässig Daten geschrieben und auch - wieder gelesen werden. Ein zweiter Pool, genannt + primäre Pool, auf den regelmäßig Daten geschrieben und auch + wieder gelesen werden. Ein zweiter Pool, genannt backup wird verwendet, um als Reserve zu dienen im Falle, dass der primäre Pool nicht zur Verfügung steht. Beachten Sie, dass diese Ausfallsicherung @@ -2644,7 +2643,7 @@ mypool 984M 43.7M 940M 4% 1.00x ONLINE - den backup-Pool abgelegt werden. Nur Schnappschüsse lassen sich auf diese Weise replizieren. Änderungen, die seit dem letzten Schnappschuss entstanden - sind, werden nicht mit repliziert. + sind, werden nicht mit repliziert. &prompt.root; zfs snapshot mypool@backup1 &prompt.root; zfs list -t snapshot @@ -2667,10 +2666,10 @@ You must redirect standard output. Um ein Dataset mit zfs send zu replizieren, leiten Sie dieses in eine Datei auf dem eingehängten Backup-Pool um. Stellen Sie sicher, dass der - Pool genug freien Speicherplatz besitzt, um die Grösse des + Pool genug freien Speicherplatz besitzt, um die Größe des gesendeten Schnappschusses aufzunehmen. Das beinhaltet alle Daten im Schnappschuss, nicht nur die Änderungen zum - vorherigen Schnappschuss. + vorherigen Schnappschuss. &prompt.root; zfs send mypool@backup1 > /backup/backup1 &prompt.root; zpool list @@ -2777,12 +2776,12 @@ mypool@replica2 0 - 55.0M - Dateien und Daten vom Pool mypool verfügbar. Wenn die Option angegeben wird, werden die - Eigenschaften des Datasets kopiert, einschliesslich der - Komprimierungseinstellungen, Quotas und Einhängpunkte. + Eigenschaften des Datasets kopiert, einschließlich der + Komprimierungseinstellungen, Quotas und Einhängepunkte. Wird die Option verwendet, so werden alle Kind-Datasets des angegebenen Datasets kopiert, zusammen mit ihren Eigenschaften. Senden und Empfangen kann - automatisiert werden, so dass regelmässig Sicherungen auf + automatisiert werden, so dass regelmäßig Sicherungen auf dem zweiten Pool angelegt werden. @@ -2791,7 +2790,7 @@ mypool@replica2 0 - 55.0M - SSH senden Datenströme über das Netzwerk zu schicken ist eine gute - Methode, um Sicherungen ausserhalb des Systems anzulegen. + Methode, um Sicherungen außerhalb des Systems anzulegen. Jedoch ist dies auch mit einem Nachteil verbunden. Daten, die über die Leitung verschickt werden, sind nicht verschlüsselt, was es jedem erlaubt, die Daten abzufangen @@ -2801,9 +2800,9 @@ mypool@replica2 0 - 55.0M - das Internet auf ein entferntes System gesendet werden. SSH kann benutzt werden, um durch Verschlüsselung geschützte Daten über eine - Netzwerkverbindung zu übertragen. Da ZFS + Netzwerkverbindung zu übertragen. Da ZFS nur die Anforderung hat, dass der Strom von der - Standardausgaben umgeleitet wird, ist es relativ einfach, + Standardausgabe umgeleitet wird, ist es relativ einfach, diesen durch SSH zu leiten. Um den Inhalt des Dateisystems während der Übertragung und auf dem entfernten System weiterhin verschlüsselt zu lassen, @@ -2811,10 +2810,10 @@ mypool@replica2 0 - 55.0M - xlink:href="http://wiki.freebsd.org/PEFS">PEFS nach. - Ein paar Einstellungen udn Sicherheitsvorkehrungen + Ein paar Einstellungen und Sicherheitsvorkehrungen müssen zuvor abgeschlossen sein. Es werden hier nur die nötigen Schritte für die zfs send-Aktion - gezeigt. Weiterführende Informationen zu + gezeigt. Weiterführende Informationen zu SSH, gibt es im Kapitel . @@ -2836,13 +2835,13 @@ mypool@replica2 0 - 55.0M - root. Allerdings ist das Anmelden als root aus - Sicherheitsgründen standardmässig deaktiviert. Mit + Sicherheitsgründen standardmäßig deaktiviert. Mit ZFS Delegation lassen sich nicht-root-Benutzer auf jedem System einrichten, welche die nötigen Rechte besitzen, um die Sende- und Empfangsoperation - durchzuführen. + durchzuführen. @@ -2852,7 +2851,7 @@ mypool@replica2 0 - 55.0M - - Um den Pool einzuhängen, muss der unpriviligierte + Um den Pool einzuhängen, muss der unprivilegierte Benutzer das Verzeichnis besitzen und gewöhnliche Benutzern muss die Erlaubnis gegeben werden, das Dateisystem einzuhängen. Auf dem empfangenden System @@ -2867,7 +2866,7 @@ vfs.usermount: 0 -> 1 - Der unpriviligierte Benutzer hat jetzt die Fähigkeit, + Der unprivilegierte Benutzer hat jetzt die Fähigkeit, Datasets zu empfangen und einzuhängen und das home-Dataset auf das entfernte System zu replizieren: @@ -2895,7 +2894,7 @@ vfs.usermount: 0 -> 1 wird das Dateisystem nicht auf der Empfängerseite eingehängt. Wenn enthalten ist, werden mehr Details zum Transfer angezeigt - werden, einschliesslich der vergangenen Zeit und der Menge + werden, einschließlich der vergangenen Zeit und der Menge an übertragenen Daten. @@ -2905,7 +2904,7 @@ vfs.usermount: 0 -> 1 Dataset-Quotas werden eingesetzt, um den Speicherplatz einzuschränken, den - ein bestimmtes Dataset verbrauchen kann. Referenz-Quotas funktionieren auf eine ähnliche Weise, jedoch wird dabei der Speicherplatz des Datasets selbst gezählt, wobei @@ -2917,19 +2916,19 @@ vfs.usermount: 0 -> 1 gesamten Speicherplatz im Pool oder auf dem Dataset zu verbrauchen. - Um eine 10 GB grösse Quota auf dem Dataset + Um ein 10 GB großes Quota auf dem Dataset storage/home/bob zu erzwingen, verwenden Sie folgenden Befehl: &prompt.root; zfs set quota=10G storage/home/bob - Um eine Referenzquota von 10 GB für + Um ein Referenzquota von 10 GB für storage/home/bob festzulegen, geben Sie ein: &prompt.root; zfs set refquota=10G storage/home/bob - Um eine Quota für storage/home/bob + Um das Quota für storage/home/bob wieder zu entfernen: &prompt.root; zfs set quota=none storage/home/bob @@ -2961,13 +2960,13 @@ vfs.usermount: 0 -> 1 - Um beispielsweise eine Benutzerquota von 50 GB für + Um beispielsweise ein Benutzerquota von 50 GB für den Benutzer names joe zu erzwingen: &prompt.root; zfs set userquota@joe=50G - Um jegliche Quota zu entfernen: + Um jegliche Quotas zu entfernen: &prompt.root; zfs set userquota@joe=none @@ -2986,7 +2985,7 @@ vfs.usermount: 0 -> 1 lautet: groupquota@group=size. - Um eine Quota für die Gruppe + Um ein Quota für die Gruppe firstgroup von 50 GB zu setzen, geben Sie ein: @@ -3017,8 +3016,8 @@ vfs.usermount: 0 -> 1 &man.zfs.1;. Benutzer mit ausreichenden Rechten sowie root können die Quota für - storage/home/bob anzeigen: + class="username">root können das Quota für + storage/home/bob anzeigen lassen: &prompt.root; zfs get quota storage/home/bob @@ -3037,7 +3036,7 @@ vfs.usermount: 0 -> 1 Das generelle Format der reservation-Eigenschaft ist reservation=size. - Um also eine Reservierung von 10 GB auf + Um also eine Reservierung von 10 GB auf storage/home/bob festzulegen, geben Sie Folgendes ein: @@ -3083,8 +3082,8 @@ vfs.usermount: 0 -> 1 Kompromissen. Mit der Einführung von LZ4-Komprimierung in ZFS v5000, ist es möglich, Komprimierung für den gesamten Pool zu - aktivieren, ohne die grossen Geschwindigkeitseinbussen der - anderen Algorithmen. Der grösste Vorteil von + aktivieren, ohne die großen Geschwindigkeitseinbußen der + anderen Algorithmen. Der größte Vorteil von LZ4 ist die Eigenschaft früher Abbruch. Wenn LZ4 nicht mindestens 12,5% Komprimierung im ersten Teil der Daten @@ -3095,7 +3094,7 @@ vfs.usermount: 0 -> 1 Komprimierungsalgorithmen in ZFS, lesen Sie den Eintrag Komprimierung im - Abschnitt Terminologie + Abschnitt Terminologie Der Administrator kann die Effektivität der Komprimierung über eine Reihe von Dataset-Eigenschaften überwachen. @@ -3132,8 +3131,8 @@ mypool/compressed_dataset logicalused 496G - jedoch die Änderung in der Komprimierung dazu führt, dass das Quota-Limit erreicht ist. - Kompression kann ein ebenso unerwartet mit Sicherungen - interagiereni. Quotas werden oft verwenden, um einzuschränken, + Kompression kann ebenso unerwartet mit Sicherungen + interagieren. Quotas werden oft verwendet, um einzuschränken, wieviele Daten gespeichert werden können um sicherzustellen, dass ausreichend Speicherplatz für die Sicherung vorhanden ist. Wenn jedoch Quotas Komprimierung nicht berücksichtigen, @@ -3154,7 +3153,7 @@ mypool/compressed_dataset logicalused 496G - Blocks. Gewaltige Speicherplatzeinsparungen sind möglich wenn die Daten viele Duplikate von Dateien oder wiederholte Informationen enthalten. Seien Sie gewarnt: Deduplizierung - benötigt eine extrem grosse Menge an Hauptspeicher und die + benötigt eine extrem große Menge an Hauptspeicher und die meistens Einsparungen können stattdessen durch das Aktivieren von Komprimierung erreicht werden. @@ -3200,7 +3199,7 @@ pool 2.84G 20.9M 2.82G 0% 3.00x ONLINE - deduplizierten Blöcke zu verwalten. Deduplizierung ist nicht immer gewinnbringend, besonders - die Daten auf dem Pool nicht redundant sind. + wenn die Daten auf dem Pool nicht redundant sind. ZFS kann potentielle Speicherplatzeinsparungen durch Deduplizierung auf einem Pool simulieren: @@ -3227,10 +3226,10 @@ refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16 Nachdem zdb -S die Analyse des Pool - abgeschlossen hat. zeigt es die Speicherplatzeinsparungen, die + abgeschlossen hat, zeigt es die Speicherplatzeinsparungen, die durch aktivierte Deduplizierung erreichbar sind, an. In diesem Fall ist 1.16 ein sehr schlechter - Faktor, der grösstenteils von Einsparungen durch Komprimierung + Faktor, der größtenteils von Einsparungen durch Komprimierung beeinflusst wird. Aktivierung von Deduplizierung auf diesem Pool würde also keine signifikante Menge an Speicherplatz einsparen und ist daher nicht die Menge an Speicher wert, die @@ -3239,7 +3238,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16 <acronym>ZFS</acronym> und Jails - Um ein ZFS-Dataset einem + Um ein ZFS-Dataset einem Jail zuzuweisen, wird der Befehl zfs jail und die dazugehörige Eigenschaft jailed verwendet. Durch Angabe von @@ -3265,8 +3264,8 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16jailed gesetzt sein. Sobald ein Dataset sich im Jail befindet, kann es nicht mehr länger auf dem Hostsystem eingehängt werden, da es - Einhängpunkte aufweisen könnte, welche die Sicherheit des - Systems gefärden. + Einhängepunkte aufweisen könnte, welche die Sicherheit des + Systems gefährden. @@ -3274,7 +3273,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16Delegierbare Administration Ein umfassendes System zur Berechtigungsübertragung erlaubt - unpriviligierten Benutzern, + unprivilegierten Benutzern, ZFS-Administrationsaufgaben durchzuführen. Beispielsweise, wenn jedes Heimatverzeichnis eines Benutzers ein Dataset ist, können Benutzer das Recht darin erhalten, @@ -3302,7 +3301,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16root - Benutzer müssen Besitzer des Einhängpunktes sein, an dem das + Benutzer müssen Besitzer des Einhängepunktes sein, an dem das Dateisystem eingebunden werden soll. @@ -3336,13 +3335,13 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16 vfs.zfs.arc_max - - Maximale Grösse des ARC. Die Voreinstellung ist der gesamte RAM weniger 1 GB oder die Hälfte vom RAM, je nachdem, was mehr ist. Allerdings sollte ein niedriger Wert verwendet werden, - wenn das System weitere Dienste oder Prozesse laudfen + wenn das System weitere Dienste oder Prozesse laufen lässt, welche Hauptspeicher benötigen. Dieser Wert kann nur zur Bootzeit eingestellt werden und wird in /boot/loader.conf festgelegt. @@ -3354,10 +3353,10 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16ARC ein, welche für die Speicherung von Metadaten verwendet - wird. Die Voreinstellun ist ein Viertel von + wird. Die Voreinstellung ist ein Viertel von vfs.zfs.arc_max. Diesen Wert zu erhöhen steigert die Geschwindigkeit, wenn die Arbeitslast - Operationen auf einer grossen Menge an Dateien und + Operationen auf einer großen Menge an Dateien und Verzeichnissen oder häufigen Metadatenoperationen beinhaltet. Jedoch bedeutet dies auch weniger Dateidaten, die in den vfs.zfs.arc_min - - Minimale Grösse des ARC. Der Standard beträgt die Hälfte von vfs.zfs.arc_meta_limit. Passen Sie @@ -3386,7 +3385,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16vfs.zfs.vdev.cache.size - Eine vorallokierte Menge von Speicher, die als Cache für - jedes Gerät im Pool reserviert wird. Die Gesamtgrösse von + jedes Gerät im Pool reserviert wird. Die Gesamtgröße von verwendetem Speicher ist dieser Wert multipliziert mit der Anzahl an Geräten. Nur zur Bootzeit kann dieser Wert angepasst werden und wird in @@ -3396,25 +3395,25 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16 vfs.zfs.min_auto_ashift - - Minimaler ashift-Wert (Sektorgrösse), + - Minimaler ashift-Wert (Sektorgröße), welche zur Erstellungszeit des Pools automatisch verwendet wird. Der Wert ist ein Vielfaches zur Basis Zwei. Der Standardwert von 9 repräsentiert - 2^9 = 512, eine Sektorgrösse von 512 - Bytes. Um write amplification zu + 2^9 = 512, eine Sektorgröße von 512 + Bytes. Um write amplification zu vermeiden und die bestmögliche Geschwindigkeit zu - erhalten, setzen Sie diesen Wert auf die grösste - Sektorgrösse, die bei einem Gerät im Pool vorhanden + erhalten, setzen Sie diesen Wert auf die größte + Sektorgröße, die bei einem Gerät im Pool vorhanden ist. - Viele Geräte besitzen 4 KB grosse Sektoren. Die + Viele Geräte besitzen 4 KB große Sektoren. Die Verwendung der Voreinstellung 9 bei ashift mit diesen Geräten resultiert in einer write amplification auf diesen Geräten. Daten, welche in einem einzelnen 4 KB Schreibvorgang Platz finden würden, müssen stattdessen in acht 512-byte Schreibvorgänge aufgeteilt werden. ZFS - versucht, die allen Geräten zugrundeliegende Sektorgrösse + versucht, die allen Geräten zugrundeliegende Sektorgröße während der Poolerstellung zu lesen, jedoch melden viele Geräte mit 4 KB Sektoren, dass ihre Sektoren aus Kompatibilitätsgründen 512 Bytes betragen. Durch das @@ -3427,14 +3426,14 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16Erzwingen von 4 KB Blöcken ist ebenfalls hilfreich auf Pools bei denen Plattenaufrüstungen geplant sind. Zukünftige Platten werden wahrscheinlich - 4 KB grosse Sektoren und der Wert von + 4 KB große Sektoren und der Wert von ashift lässt sich nach dem Erstellen des Pools nicht mehr ändern. - In besonderen Fällen ist die kleinere Blockgrösse von - 512-Bye vorzuziehen. Weniger Daten werden bei kleinen, + In besonderen Fällen ist die kleinere Blockgröße von + 512-Byte vorzuziehen. Weniger Daten werden bei kleinen, zufälligen Leseoperationen übertragen, was besonders bei - 512-Byte grossen Platten für Datenbanken oder Plattenplatz + 512-Byte großen Platten für Datenbanken oder Plattenplatz für virtuelle Maschinen der Fall ist. Dies kann bessere Geschwindigkeit bringen, ganz besonders wenn eine kleinere ZFS record size verwendet wird. @@ -3444,15 +3443,15 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16vfs.zfs.prefetch_disable - Prefetch deaktivieren. Ein Wert von 0 - bedeutet aktiviert und 1 heisst + bedeutet aktiviert und 1 heißt deaktiviert. Die Voreinstellung ist 0, - ausser, das System besitzt weniger als + außer, das System besitzt weniger als 4 GB RAM. Prefetch funktioniert durch das Lesen von grösseren Blöcken in den ARC als angefordert wurden, in der Hoffnung, dass diese Daten ebenfalls bald benötigt werden. Wenn die I/O-Last viele - grosse Mengen von zufälligen Leseoperationen beinhaltet, + große Mengen von zufälligen Leseoperationen beinhaltet, ist das Deaktivieren von prefetch eine Geschwindigkeitssteigerung durch die Reduzierung von unnötigen Leseoperationen. Dieser Wert kann zu jeder Zeit @@ -3468,7 +3467,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16SSDs, benötigt jedoch zusätzliche Zeit. Wenn das Gerät bereits sicher gelöscht wurde, kann durch deaktivieren dieser Option das - Hinzufügen neuer Geräte schneller geschehen. Über + Hinzufügen neuer Geräte schneller geschehen. Über &man.sysctl.8; lässt sich dieser Wert jederzeit einstellen. @@ -3479,7 +3478,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16DEGRADED befindet. - Standardmässig ist dieser Wert 0, was + Standardmäßig ist dieser Wert 0, was Schreibvorgänge zu jeglichem darüberliegenden vdev verhindert, das sich in diesem Zustand befindet. Der Administrator kann durch das Erlauben von Schreibvorgängen @@ -3494,7 +3493,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16vfs.zfs.vdev.max_pending - Begrenzt die Menge von ausstehenden I/O-Anfragen pro - Gerät. Ein grösserer Wert wird die Gerätewarteschlange + Gerät. Ein größerer Wert wird die Gerätewarteschlange für Befehle gefüllt lassen und möglicherweise besseren Durchsatz erzeugen. Ein niedrigerer Wert reduziert die Latenz. Jederzeit kann dieser Wert über &man.sysctl.8; @@ -3537,7 +3536,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16SSD bis der erste Block aus dem L2ARC verdrängt wurde. Diese Turbo Warmup Phase - wurde etwickelt, um den Geschwindigkeitsverlust eines + wurde entwickelt, um den Geschwindigkeitsverlust eines leeren L2ARC nach einem Neustart zu reduzieren. Jederzeit kann dieser @@ -3559,7 +3558,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16IOPS (I/Os Per Second), die von scrub generiert werden. Die Granularität der Einstellung ist bestimmt durch den Wert - von kern.hz, welcher standardmässig auf + von kern.hz, welcher standardmäßig auf auf 1000 Ticks pro Sekunde eingestellt ist. Diese Einstellung kann geändert werden, was in einer unterschiedlich effektiven Limitierung der @@ -3592,7 +3591,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16IOPS (I/Os Pro Sekunde), die vom resilver erzeugt werden. Die Granularität der Einstellung wird durch den Wert von kern.hz - bestimmt, welcher standardmässig 1000 Ticks pro Sekunde + bestimmt, welcher standardmäßig 1000 Ticks pro Sekunde beträgt. Diese Einstellung lässt sich ändern, was in einem unterschiedlich effizienten IOPS-Limit resultiert. Die @@ -3640,7 +3639,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16Als absolutes Minimum sollte der gesamte verfügbare Hauptspeicher mindestens ein Gigabyte betragen. Die vorgeschlagene Menge an RAM ist bedingt - durch die Poolgrösse und welche Eigenschaften von - ZFS verwendet werden. Eine Faustregel + durch die Poolgröße und welche Eigenschaften von + ZFS verwendet werden. Eine Faustregel besagt, dass 1 GB RAM für jedes 1 TB Storage vorgesehen werden sollte. Wenn Deduplizierung zum Einsatz kommt, besagt die Regel, dass 5 GB RAM pro TB an @@ -3703,7 +3702,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16Wegen des begrenzten Addressraumes der &i386;-Plattform müssen ZFS-Anwendern auf der - &i386;-Architekture diese Option der + &i386;-Architektur diese Option der Kernelkonfigurationsdatei hinzufügen, den Kernel erneut bauen und das System neu starten: @@ -3726,7 +3725,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16/boot/loader.conf und einem - anschliessenden Systemneustart Erfolge erzielt: + anschließenden Systemneustart Erfolge erzielt: vm.kmem_size="330M" vm.kmem_size_max="330M" @@ -3841,8 +3840,8 @@ vfs.zfs.vdev.cache.size="5M" für ZFS Version 28. Spätere Versionen setzen ZFS Version 5000 mit Feature Flags ein. Das neue Feature Flag System - erlaubt eine grössere Kompatibilität mit anderen - Implemtierungen von ZFS. + erlaubt eine größere Kompatibilität mit anderen + Implementierungen von ZFS. @@ -3871,7 +3870,7 @@ vfs.zfs.vdev.cache.size="5M" oder auch eine Partition (/dev/ada0p3) sein. - Auf &os; gibt es keine Geschwindigkeitseinbussen + Auf &os; gibt es keine Geschwindigkeitseinbußen bei der Verwendung einer Partition anstatt einer kompletten Platte. Dies unterscheidet sich von den Empfehlungen, welche in der Solaris @@ -3883,11 +3882,11 @@ vfs.zfs.vdev.cache.size="5M" xml:id="zfs-term-vdev-file">File - Zusätzlich zu Festplatten können ZFS-Pools aus regulären Dateien - aufgebaut sein, was bespnders hilfreich ist, um zu + aufgebaut sein, was besonders hilfreich ist, um zu testen und zu experimentieren. Verwenden Sie den kompletten Pfad zu der Datei als Gerätepfad im Befehl zpool create. Alle vdevs müssen mindestens - 128 MB gross sein. + 128 MB groß sein. @@ -3963,10 +3962,10 @@ vfs.zfs.vdev.cache.size="5M" RAID-60-Verbund entsprechen. Der Speicherplatz einer RAID-Z-Gruppe ist ungefähr die - Grösse der kleinsten Platte multipliziert mit der + Größe der kleinsten Platte multipliziert mit der Anzahl von nicht-Paritätsplatten. Vier 1 TB Platten in einem RAID-Z1 - besitzt eine effektive Grösse von ungefähr + besitzt eine effektive Größe von ungefähr 3 TB und ein Verbund von acht 1 TB-Platten als RAID-Z3 enthält 5 TB verfügbarer Plattenplatz. @@ -3995,13 +3994,13 @@ vfs.zfs.vdev.cache.size="5M" Geräten im Pool auf ein dediziertes Gerät, typischerweise eine SSD. Ein dediziertes Log-Gerät zu besitzen kann die - Geschwindigkeit von Anwendungen mit einer grossen + Geschwindigkeit von Anwendungen mit einer großen Anzahl von synchronen Schreibvorgängen, besonders Datenbanken, signifikant steigern. Log-Geräte können gespiegelt werden, jedoch wird RAID-Z nicht unterstützt. Werden mehrere Log-Geräte verwendet, so werden - Schreibvorgänge gleichmässig unter diesen + Schreibvorgänge gleichmäßig unter diesen aufgeteilt. @@ -4044,7 +4043,7 @@ vfs.zfs.vdev.cache.size="5M" die Transaktionsgruppe neue Schreibvorgänge ablehnen, wenn diese ein Limit erreicht hat. Sobald eine offene Transaktionsgruppe an das Limit - stösst oder das vfs.zfs.txg.timeout wurde erreicht, geht die Transaktionsgruppe in den nächsten Zustand über. @@ -4070,7 +4069,7 @@ vfs.zfs.vdev.cache.size="5M" Speichermedium geschrieben werden müssen. Der Prozess des Synchronisierens beinhaltet mehrere Durchläufe. Der erste Prozess, welches der - grösste, gefolgt von den Metadaten, ist, + größte, gefolgt von den Metadaten, ist, beinhaltet alle geänderten Datenblöcke und kann mehrere Durchläufe benötigen, um zum Ende zu gelangen. Da das Allokieren von Speicher für die @@ -4079,7 +4078,7 @@ vfs.zfs.vdev.cache.size="5M" ein Durchlauf fertig ist, der keinen zusätzlichen Speicher allokiert. Der Synchronisierungszustand ist der Zustand, in dem auch - synctasks abgeschlosse + synctasks abgeschlossen werden. Synctasks sind administrative Operationen, wie das Erstellen oder zerstören von Schnappschüssen und Datasets, welche den Überblock @@ -4243,9 +4242,9 @@ vfs.zfs.vdev.cache.size="5M" erweitert werden durch das Erstellen von mypool/home/user. Dieses Enkelkind-Dataset wird alle Eigenschaften von den Eltern - und Grosseltern erben. Eigenschaften auf einem Kind + und Großeltern erben. Eigenschaften auf einem Kind können die geerbten Standardwerte der Eltern und - Grosseltern ändern und überschreiben. Die Verwaltung + Großeltern ändern und überschreiben. Die Verwaltung von Datasets und dessen Kindern lässt sich delegieren. @@ -4254,7 +4253,7 @@ vfs.zfs.vdev.cache.size="5M" Dateisystem Ein ZFS-Dataset wird meistens - als ein Dateisystem verwendet. Wie jedes andere + als ein Dateisystem verwendet. Wie jedes andere Dateisystem kann auch ein ZFS-Dateisystem irgendwo in der Verzeichnishierarchie eingehängt werden und enthält @@ -4296,7 +4295,7 @@ vfs.zfs.vdev.cache.size="5M" Schnappschuss erstellt wurden. Kein zusätzlicher Platz wird benötigt. Werden neue Daten auf das aktive Dateisystem geschrieben, werden neue Blöcke allokiert, - um diese Daten zu speichern. Die scheinbare Grösse des + um diese Daten zu speichern. Die scheinbare Größe des Schnappschusses wird wachsen, da die Blöcke nicht mehr länger im aktiven Dateisystem, sondern nur noch im Schnappschuss Verwendung finden. Diese Schnappschüsse @@ -4336,7 +4335,7 @@ vfs.zfs.vdev.cache.size="5M" als neues Dataset aufzuspalten. Genau wie bei einem Schnappschuss verbraucht ein Klon keinen zusätzlichen Platz. Wenn neue Daten auf einen Klon geschrieben und - neue Blöcke allokiert werden, wächst auch die Grösse des + neue Blöcke allokiert werden, wächst auch die Größe des Klons. Wenn Blöcke im geklonten Dateisystem oder Volume überschrieben werden, verringert sich auch der Referenzzähler im vorherigen Block. Der Schnappschuss, @@ -4389,7 +4388,7 @@ vfs.zfs.vdev.cache.size="5M" Die fletcher-Algorithmen sind schneller, aber dafür ist sha256 ein starker kryptographischer Hash und besitzt eine viel - niedrigere Chance auf Kollisionen zu stossen mit dem + niedrigere Chance auf Kollisionen zu stoßen mit dem Nachteil geringerer Geschwindigkeit. Prüfsummen können deaktiviert werden, dies wird aber nicht empfohlen. @@ -4399,7 +4398,7 @@ vfs.zfs.vdev.cache.size="5M" Compression Jedes Dataset besitzt eine compression-Eigenschaft, - die standardmässig ausgeschaltet ist. Diese Eigenschaft + die standardmäßig ausgeschaltet ist. Diese Eigenschaft kann auf eine Reihe von Kompressionsalgorithmen eingestellt werden. Dadurch werden alle neuen Daten, die auf das Dataset geschrieben werden, komprimiert. @@ -4411,7 +4410,7 @@ vfs.zfs.vdev.cache.size="5M" LZ4 - Wurde in der ZFS Poolversion - 5000 (feature flags) hiinzugefügt und + 5000 (feature flags) hinzugefügt und LZ4 ist jetzt der empfohlene Kompressionsalgorithmus. LZ4 komprimiert ungefähr 50% schneller als @@ -4469,7 +4468,7 @@ vfs.zfs.vdev.cache.size="5M" Kompressionsalgorithmus, welcher nur fortlaufende Aneinanderreihungen von Nullen komprimiert. Dieser Komprimierungsalgorithmus ist nur sinnvoll, - wenn das Dataset viele grosse Blöcke von Nullen + wenn das Dataset viele große Blöcke von Nullen aufweist. @@ -4526,8 +4525,8 @@ vfs.zfs.vdev.cache.size="5M" im Hash vermerkt und die beiden Blöcke separat gespeichert. Da die DDT den Hash jedes einzigartigen Blocks speichern muss, benötigt sie - eine grosse Menge an Speicher. Eine generelle - Faustregel besagt, dass 5-6 GB RAM pro 1 TB + eine große Menge an Speicher. Eine generelle + Faustregel besagt, dass 5-6 GB RAM pro 1 TB deduplizierter Daten benötigt werden. In Situationen, in denen es nicht praktikabel ist, genug RAM vorzuhalten, um die gesamte @@ -4539,7 +4538,7 @@ vfs.zfs.vdev.cache.size="5M" um die DDT zu speichern, was einen guten Mittelweg zwischen schnellem Systemspeicher und langsameren Platten darstellt. Bedenken Sie, dass durch - die Verwendung von Komprimierung meistens genauso grosse + die Verwendung von Komprimierung meistens genauso große Platzersparnis möglich ist, ohne den zusätzlichen Hauptspeicherplatzbedarf. @@ -4547,7 +4546,7 @@ vfs.zfs.vdev.cache.size="5M" Scrub (Bereinigung) - Anstat einer Konsistenzprüfung wie &man.fsck.8; + Anstatt einer Konsistenzprüfung wie &man.fsck.8; verwendet ZFS scrub. scrub liest alle Datenblöcke, die auf dem Pool gespeichert @@ -4593,7 +4592,7 @@ vfs.zfs.vdev.cache.size="5M" sind verfügbar. Quotas beschränken die Menge an Speicherplatz, - welche ein Dataset, seine Kinder, einschliesslich + welche ein Dataset, seine Kinder, einschließlich Schnappschüsse des Datasets, deren Kinder und die Schnappschüsse von diesen Datasets, verbrauchen können. @@ -4608,7 +4607,7 @@ vfs.zfs.vdev.cache.size="5M" Referenzquota - Eine Referenzquota beschränkt die Menge an + Ein Referenzquota beschränkt die Menge an Speicherplatz, die ein Dataset verbrauchen kann durch das Erzwingen einer harten Grenze. Jedoch beinhaltet diese harte Grenze nur Speicherplatz, die das Dataset @@ -4655,7 +4654,7 @@ vfs.zfs.vdev.cache.size="5M" Schnappschüsse. Reservierungen jeder Art sind in vielen - Situationen nützlich, so wie bei der Planung un dem + Situationen nützlich, so wie bei der Planung und dem Testen der richtigen Speicherplatzallokation in einem neuen System oder durch die Zusicherung, dass genug Speicherplatz auf Dateisystemen für Audio-Logs oder @@ -4683,10 +4682,10 @@ vfs.zfs.vdev.cache.size="5M" gegen die Reservierung gezählt. Beispielsweise, wenn ein Schnappschuss von storage/home/bob angelegt wird, - muss genug Plattenplatz ausserhalb der Menge an + muss genug Plattenplatz außerhalb der Menge an refreservation vorhanden sein, damit die Operation erfolgreich durchgeführt wird. Kinder des - Hauptdatasets werden nicht in die Menge an + Hauptdatasets werden nicht in die Menge an refreservation gezählt und dringen auf diese Weise auch nicht in den gesetzten Speicher ein. @@ -4736,7 +4735,7 @@ vfs.zfs.vdev.cache.size="5M" Der Pool kann immer noch verwendet werden, doch wenn noch weitere Geräte ausfallen, kann der Pool nicht wiederhergestellt werden. Die fehlenden Geräte - anzuschliessen oder die defekten Platten zu ersetzen + anzuschließen oder die defekten Platten zu ersetzen wird den Pool wieder in den Zustand Online versetzen, nachdem die angeschlossenen oder neuen Geräte den