diff --git a/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml b/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml
index 3cb4f6d1bd..4a9a8da057 100644
--- a/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml
+++ b/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml
@@ -57,7 +57,7 @@
Das Z-Dateisystem, oder kurz
ZFS, ist ein fortgeschrittenes Dateisystem, das
- entwickelt wurde, um viele der grossen Probleme in vorherigen
+ entwickelt wurde, um viele der großen Probleme in vorherigen
Entwicklungen zu überwinden.Ursprünglich von &sun; entworfen, wird die weitere Entwicklung
@@ -65,7 +65,7 @@
xlink:href="http://open-zfs.org">OpenZFS Projekt
vorangetrieben.
- ZFS hat drei grosse Entwurfsziele:
+ ZFS hat drei große Entwurfsziele:
@@ -85,7 +85,7 @@
einem Pool zusammengefasst und der Speicherplatz wird von
diesem gemeinsam genutzten Pool allokiert. Der Speicherplatz
steht allen Dateisystemen zur Verfügung und kann durch das
- Hinzufügen von neuen Speichermedien vergrössert werden.
+ Hinzufügen von neuen Speichermedien vergrößert werden.
@@ -95,7 +95,7 @@
hauptspeicherbasierter Zwischenspeicher für Leseanfragen. Auf
einer zweiten Stufe kann ein plattenbasierter L2ARC-Lesezwischenspeicher
- hinzugefügt werden. Zusätzlich ist auch noch ein
+ hinzugefügt werden. Zusätzlich ist auch noch ein
plattenbasierter, synchroner Schreibzwischenspeicher
verfügbar, der sog. ZIL.
@@ -114,7 +114,7 @@
Dateisystem ist. Durch die Kombination von traditionell
getrennten Rollen von Volumenmanager und Dateisystem ist
ZFS mit einzigartigen Vorteilen ausgestattet.
- Das Dateisystem besitzt jetzt Kentniss von der zugrundeliegenden
+ Das Dateisystem besitzt jetzt Kenntnis von der zugrundeliegenden
Struktur der Speichermedien. Traditionelle Dateisysteme konnten
nur auf einer einzigen Platte gleichzeitig angelegt werden.
Falls es zwei Festplatten gab, mussten auch zwei getrennte
@@ -127,20 +127,20 @@
Fall von Software-RAID-Lösungen, wie die, die
von GEOM bereitgestellt werden, war das
UFS-Dateisystem der Ansicht, dass es auf nur
- einem einzigen Gerät angelegt wurde. ZFS'
+ einem einzigen Gerät angelegt wurde. ZFS's
Kombination eines Volumenmanagers und eines Dateisystems löst
dies und erlaubt das Erstellen von vielen Dateisystemen, die
sich alle den darunterliegenden Pool aus verfügbarem Speicher
- teilen. Einer der grössten Vorteile von ZFS'
- Kentniss des physikalischen Layouts der Platten ist, dass
+ teilen. Einer der größten Vorteile von ZFS's
+ Kenntnis des physikalischen Layouts der Platten ist, dass
existierende Dateisysteme automatisch wachsen können, wenn
zusätzliche Platten zum Pool hinzugefügt werden. Dieser neue
Speicherplatz wird dann allen Dateisystemen zur Verfügung
gestellt. ZFS besitzt ebenfalls eine Menge
an unterschiedlichen Eigenschaften, die für jedes Dateisystem
- angepasst werden könnnen, was viele Vorteile bringt, wenn man
+ angepasst werden können, was viele Vorteile bringt, wenn man
unterschiedliche Dateisysteme und Datasets anlegt, anstatt ein
- einziges, monolitisches Dateisystem zu erzeugen.
+ einziges, monolithisches Dateisystem zu erzeugen.
@@ -170,7 +170,7 @@
Pools mit einer PlatteUm einen einfachen, nicht-redundanten Pool mit einem
- einzigen Gerät anzulegen, geben Sie folgendes ein:
+ einzigen Gerät anzulegen, geben Sie folgendes ein:
&prompt.root; zpool create example/dev/da0
@@ -208,7 +208,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 23:12 ..
Das example/compressed-Dataset ist nun
ein komprimiertes ZFS-Dateisystem.
- Versuchen Sie, ein paar grosse Dateien auf
+ Versuchen Sie, ein paar große Dateien auf
/example/compressed zu kopieren.Deaktivieren lässt sich die Komprimierung durch:
@@ -217,7 +217,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 23:12 ..
Um ein Dateisystem abzuhängen, verwenden Sie
zfs umount und überprüfen Sie dies
- anschliessend mit df:
+ anschließend mit df:
&prompt.root; zfs umount example/compressed
&prompt.root; df
@@ -251,8 +251,8 @@ example on /example (zfs, local)
example/compressed on /example/compressed (zfs, local)Nach der Erstellung können ZFS-Datasets
- wie jedes undere Dateisystem verwendet werden. Jedoch sind
- jede Menge undere Besonderheiten verfügbar, die individuell
+ wie jedes andere Dateisystem verwendet werden. Jedoch sind
+ jede Menge andere Besonderheiten verfügbar, die individuell
auf Dataset-Basis eingestellt sein können. Im Beispiel unten
wird ein neues Dateisystem namens data
angelegt. Wichtige Dateien werden dort abgespeichert, deshalb
@@ -284,8 +284,8 @@ example/data 17547008 0 17547008 0% /example/data
Partitionen und erlaubt es mehreren Dateisystemen den gleichen
Pool zu belegen.
- Um das Dateisystem zu zerstören und anschliessend den
- Pool, da dieser nicht mehr benötigt wird, geben Sie
+ Um das Dateisystem und anschließend den Pool zu
+ zerstören, wenn dieser nicht mehr benötigt wird, geben Sie
ein:&prompt.root; zfs destroy example/compressed
@@ -314,7 +314,7 @@ example/data 17547008 0 17547008 0% /example/data&sun; empfiehlt, dass die Anzahl der Geräte in einer
RAID-Z Konfiguration zwischen drei und
neun beträgt. Für Umgebungen, die einen einzelnen Pool
- enötigen, der aus 10 oder mehr Platten besteht, sollten Sie
+ benötigen, der aus 10 oder mehr Platten besteht, sollten Sie
in Erwägung ziehen, diesen in kleinere
RAID-Z-Gruppen aufzuteilen. Falls nur
zwei Platten verfügbar sind und Redundanz benötigt wird,
@@ -349,7 +349,7 @@ example/data 17547008 0 17547008 0% /example/data
Daten von Anwendern werden nun auf dem frisch erstellten
/storage/home abgelegt. Überprüfen Sie
dies durch das Anlegen eines neuen Benutzers und das
- anschliessende Anmelden als dieser Benutzer.
+ anschließende Anmelden als dieser Benutzer.Versuchen Sie, einen Dateisystemschnappschuss anzulegen,
den Sie später wieder zurückrollen können:
@@ -377,11 +377,11 @@ example/data 17547008 0 17547008 0% /example/data
&prompt.root; ls /storage/home/.zfs/snapshot
- Es ist möglich, ein Skript zu schreiben, um regelmässig
+ Es ist möglich, ein Skript zu schreiben, um regelmäßig
Schnappschüsse von Benutzerdaten anzufertigen. Allerdings
- verbrauchen Schnappschüsse über lange Zeit eine grosse Menge
+ verbrauchen Schnappschüsse über lange Zeit eine große Menge
an Speicherplatz. Der zuvor angelegte Schnappschuss kann
- durch folgendes Kommundo wieder entfernt werden:
+ durch folgendes Kommando wieder entfernt werden:&prompt.root; zfs destroy storage/home@08-30-08
@@ -414,8 +414,8 @@ storage/home 26320512 0 26320512 0% /home
abgeschlossen. Tägliche Informationen über den Status der
erstellten Dateisysteme können als Teil des nächtlichen
&man.periodic.8;-Berichts generiert werden. Fügen Sie dazu
- die folgende Zeile in die Datei
- /etc/periodic.conf ein:
+ die folgende Zeile in /etc/periodic.conf
+ ein:
daily_status_zfs_enable="YES"
@@ -424,7 +424,7 @@ storage/home 26320512 0 26320512 0% /home
RAID-Z wiederherstellenJedes Software-RAID besitzt eine
- Methode, um den Zustund (state) zu
+ Methode, um den Zustand (state) zu
überprüfen. Der Status von RAID-Z Geräten
wird mit diesem Befehl angezeigt:
@@ -437,8 +437,8 @@ storage/home 26320512 0 26320512 0% /home
all pools are healthyWenn es ein Problem gibt, womöglich ist eine Platte
- im Zustund Offline,
- dann wird der Poolzustund ähnlich wie dieser aussehen:
+ im Zustand Offline,
+ dann wird der Poolzustand ähnlich wie dieser aussehen:
pool: storage
state: DEGRADED
@@ -520,12 +520,12 @@ errors: No known data errors&prompt.root; zpool scrub storageDie Laufzeit einer Überprüfung hängt ab von der Menge an
- Daten, die gespeichert sind. Grössere Mengen an Daten
+ Daten, die gespeichert sind. Größere Mengen an Daten
benötigen proportional mehr Zeit zum überprüfen. Diese
Überprüfungen sind sehr I/O-intensiv und
es kann auch nur eine Überprüfung zur gleichen Zeit
durchgeführt werden. Nachdem eine Prüfung beendet ist, kann
- der Status mit dem Unterkommundo status
+ der Status mit dem Unterkommando status
angezeigt werden:&prompt.root; zpool status storage
@@ -559,7 +559,7 @@ errors: No known data errorsAdministration von ZFS ist unterteilt
zwischen zwei Hauptkommandos. Das
- zpool-Wekzeug steuert die Operationen des
+ zpool-Werkzeug steuert die Operationen des
Pools und kümmert sich um das Hinzufügen, entfernen, ersetzen
und verwalten von Platten. Mit dem zfs-Befehl können
@@ -585,7 +585,7 @@ errors: No known data errors
gestatten, sowie stripes, die zu Spiegeln umgewandelt werden
können, indem man zusätzliche Platten zum vdev anhängt.
Obwohl weitere vdevs eingefügt werden können, um einen Pool zu
- vergrössern, kann das Layout des Pools nach dem Anlegen nicht
+ vergrößern, kann das Layout des Pools nach dem Anlegen nicht
mehr verändert werden. Stattdessen müssen die Daten
gesichert, der Pool zerstört und danach neu erstellt
werden.
@@ -641,11 +641,11 @@ errors: No known data errors
Partition anstatt einer ganzen Platte verwendet wird. Durch
den Einsatz von Partitionen kann der Administrator die Platten
unter provisionieren, indem weniger als
- die volle Kapazität Verwendung findet. Wenn in Zukunft ein
- Ersatzfestplatte mit der gleichen Grösse als die
+ die volle Kapazität Verwendung findet. Wenn in Zukunft eine
+ Ersatzfestplatte mit der gleichen Größe als die
Originalplatte eine kleinere Kapazität aufweist, passt die
- kleinere Partition immer noch passen und die Ersatzplatte
- immer noch verwendet werden.
+ kleinere Partition immer noch und die Ersatzplatte kann immer
+ noch verwendet werden.
Erstellen eines RAID-Z2-Pools mit
@@ -708,10 +708,10 @@ errors: No known data errors
zpool attach können auch zusätzliche
Platten zu einer Spiegelgruppe eingefügt werden, was die
Redundanz und Lesegeschwindigkeit steigert. Wenn die Platten,
- aus denen der Pool besteht, aus partitioniert sind,
- replizieren Sie das Layout der ersten Platte auf die Zweite
- und verwenden dann gpart backup, gefolgt
- von gpart restore, um diesen Vorgang
+ aus denen der Pool besteht, partitioniert sind,
+ replizieren Sie das Layout der ersten Platte auf die Zweite.
+ Verwenden Sie dazu gpart backup und
+ gpart restore, um diesen Vorgang
einfacher zu gestalten.Umwandeln eines (stripe) vdevs namens
@@ -780,7 +780,7 @@ errors: No known data errors
Zusätzliche vdevs bieten höhere Geschwindigkeit, indem
Schreibvorgänge über die vdevs verteilt werden. Jedes vdev
ist dafür verantwortlich, seine eigene Redundanz
- sicherzustellen. Es ist möglich, aber nicht empfohlen,
+ sicherzustellen. Es ist möglich, aber nicht empfehlenswert,
vdev-Arten zu mischen, wie zum Beispiel
mirror und RAID-Z.
Durch das Einfügen eines nicht-redundanten vdev zu einem
@@ -920,21 +920,21 @@ errors: No known data errors
Wenn ein Fehler erkannt wurde, werden die Lese-, Schreib-
oder Prüfsummenzähler erhöht. Die Fehlermeldung kann
- beseitigt und der Zähler zurückgesetzt werden mit
+ beseitigt und der Zähler mit
zpool clear
- mypool. Den
- Fehlerzustand zurückzusetzen kann wichtig sein, wenn
- automatisierte Skripte ablaufen, die den Administrator
+ mypool zurückgesetzt
+ werden. Den Fehlerzustand zurückzusetzen kann wichtig sein,
+ wenn automatisierte Skripte ablaufen, die den Administrator
informieren, sobald der Pool Fehler anzeigt. Weitere Fehler
werden nicht gemeldet, wenn der alte Fehlerbericht nicht
entfernt wurde.
- Ein defektes Gerät entfernen
+ Ein funktionierendes Gerät ersetzenEs gibt eine Reihe von Situationen, in denen es nötig
- wird, eine defekte Platte mit einer anderen auszutauschen.
+ ist, eine Platte mit einer anderen auszutauschen.
Wenn eine funktionierende Platte ersetzt wird, hält der
Prozess die alte Platte während des Ersetzungsvorganges noch
aktiv. Der Pool wird nie den Zustand
zpool replace auf die Neue übertragen.
Nachdem die Operation abgeschlossen ist, wird die alte Platte
vom vdev getrennt. Falls die neue Platte grösser ist als die
- alte Platte , ist es möglich den Pool zu vergrössern, um den
+ alte Platte , ist es möglich den Pool zu vergrößern, um den
neuen Platz zu nutzen. Lesen Sie dazu Einen Pool vergrössern.
+ linkend="zfs-zpool-online">Einen Pool vergrößern.Ersetzen eines funktionierenden Geräts in einem
Pool:
@@ -1031,10 +1031,10 @@ errors: No known data errors
Falls das vdev keine Redundanz besitzt oder wenn mehrere
Geräte ausgefallen sind und es nicht genug Redundanz gibt, um
- zu kompensieren, geht der Pool in den Zustand faulted über. Wenn eine
- ausreichende Anzahl von Geräten nicht wieder an den Pool
- angeschlossen werden können, fällt der Pool aus und die Daten
+ dies zu kompensieren, geht der Pool in den Zustand faulted über. Wenn keine
+ ausreichende Anzahl von Geräten wieder an den Pool
+ angeschlossen wird, fällt der Pool aus und die Daten
müssen von Sicherungen wieder eingespielt werden.Wenn eine defekte Platte ausgewechselt wird, wird der Name
@@ -1102,12 +1102,12 @@ errors: No known data errors
Einen Pool überprüfen
- Es wird empfohlen, dass Pools regelmässig geprüft (Es wird empfohlen, dass Pools regelmäßig geprüft (scrubbed) werden,
idealerweise mindestens einmal pro Monat. Der
scrub-Vorgang ist beansprucht die Platte
sehr und reduziert die Geschwindigkeit während er läuft.
- Vermeiden Sie Zeiten, in denen grosser Bedarf besteht, wenn
+ Vermeiden Sie Zeiten, in denen großer Bedarf besteht, wenn
Sie scrub starten oder benutzen Sie vfs.zfs.scrub_delay,
um die relative Priorität vom scrub
@@ -1158,7 +1158,7 @@ errors: No known data errors
welche die Daten überprüfen und reparieren. Diese Kommandos
benötigen einige Zeit und in gravierenden Fällen muss ein
Administrator manuelle Entscheidungen treffen, welche
- Reparaturoperation vorgenommen werden soll. Wenn
+ Reparaturoperation vorgenommen werden soll. Wenn
ZFS einen defekten Datenblock mit einer
Prüfsumme erkennt, die nicht übereinstimmt, versucht es die
Daten von der gespiegelten Platte zu lesen. Wenn diese Platte
@@ -1209,12 +1209,12 @@ SHA1 (/healer) = 2753eff56d77d9a536ece6694bf0a82740344d1f
Daten an den Anfang einer Platte des Spiegels simuliert. Um
ZFS daran zu hindern, die Daten so schnell
zu reparieren, wie es diese entdeckt, wird der Pool vor der
- Veränderung exportiert und anschliessend wieder
+ Veränderung exportiert und anschließend wieder
importiert.Dies ist eine gefährliche Operation, die wichtige Daten
- zerstören kann. Es wird hier nur zu Demonstrationszwecken
+ zerstören kann. Es wird hier nur zu Demonstrationszwecken
gezeigt und sollte nicht während des normalen Betriebs des
Pools versucht werden. Dieses vorsätzliche
Korrumpierungsbeispiel sollte auf gar keinen Fall auf einer
@@ -1341,10 +1341,10 @@ errors: No known data errors
Nach der scrub-Operation und der anschliessenden
Synchronisation der Daten von ada0 nach
- ada1, kann die Fehlermeldun vom
- Poolstatus bereinigt
- werden durch die Eingabe von
- zpool clear.
+ ada1, kann die Fehlermeldung vom
+ Poolstatus durch die Eingabe von
+ zpool clear
+ bereinigt werden.&prompt.root; zpool clear healer
&prompt.root; zpool status healer
@@ -1361,7 +1361,7 @@ config:
errors: No known data errors
- Der Pool ist jetzt wieder in einen voll funktionsfähigen
+ Der Pool ist jetzt wieder in einem voll funktionsfähigen
Zustand versetzt worden und alle Fehler wurden
beseitigt.
@@ -1369,20 +1369,20 @@ errors: No known data errors
Einen Pool vergrössern
- Die verwendbare Grösse eines redundant ausgelegten Pools
+ Die verwendbare Größe eines redundant ausgelegten Pools
ist durch die Kapazität des kleinsten Geräts in jedem vdev
- begrenzt. Das kleinste Gerät kann durch ein grösseres Gerät
+ begrenzt. Das kleinste Gerät kann durch ein größeres Gerät
ersetzt werden. Nachdem eine replace oder resilver-Operation
abgeschlossen wurde, kann der Pool anwachsen, um die Kapazität
des neuen Geräts zu nutzen. Nehmen wir als Beispiel einen
- Spiegel mit einer 1 TB und einer 2 TB Platte. Der
+ Spiegel mit einer 1 TB und einer 2 TB Platte. Der
verwendbare Plattenplatz beträgt 1 TB. Wenn die
1 TB Platte mit einer anderen 2 TB Platte ersetzt
wird, kopiert der resilver-Prozess die existierenden Daten auf
die neue Platte. Da beide Geräte nun 2 TB Kapazität
- besitzen, kann auch der verfügbare Plattenplatz auf die Grösse
+ besitzen, kann auch der verfügbare Plattenplatz auf die Größe
von 2 TB anwachsen.Die Erweiterung wird durch das Kommando
@@ -1416,8 +1416,8 @@ errors: No known data errors
Beim Importieren eines Pool werden auch automatisch alle
Datasets eingehängt. Dies ist möglicherweise nicht das
- bevorzugte Verhalten und wird durch
- zpool import -N verhindert. Durch
+ bevorzugte Verhalten und wird durch
+ zpool import -N verhindert. Durch
zpool import -o temporäre Eigenschaften nur
für diesen Import gesetzt. Mit dem Befehl
zpool import altroot= ist es möglich, einen
@@ -1425,10 +1425,9 @@ errors: No known data errors
des Dateisystems einzubinden. Wenn der Pool zuletzt auf einem
anderen System verwendet und nicht korrekt exportiert
wurde, muss unter Umständen ein Import erzwungen werden durch
- zpool import -f. Alle Pools lassen sich
- durch zpool import -a importieren, die
- nicht durch ein anderes System momemtan verwendet
- werden.
+ zpool import -f. Alle Pools, die momentan
+ nicht durch ein anderes System verwendet werden, lassen sich
+ mit zpool import -a importieren.Alle zum Import verfügbaren Pools auflisten:
@@ -1455,7 +1454,7 @@ mypool 110K 47.0G 31K /mnt/mypool
Einen Pool aktualisieren
- Nachdem &os; aktualisiert wurde oder wenn der Poo von
+ Nachdem &os; aktualisiert wurde oder wenn der Pool von
einem anderen System, das eine ältere Version von
ZFS einsetzt, lässt sich der Pool manuell
auf den aktuellen Stand von ZFS bringen, um
@@ -1574,7 +1573,7 @@ Enabled the following features on 'mypool':
Der Bootcode muss auf Systemen, die von dem Pool
starten, aktualisiert werden, um diese neue Version zu
- unterstützen. Verwenden Sie
+ unterstützen. Verwenden Sie
gpart bootcode auf der Partition, die den
Bootcode enthält. Lesen Sie für weitere Informationen
&man.gpart.8;.
@@ -1585,11 +1584,11 @@ Enabled the following features on 'mypool':
Aufgezeichnete Historie des Pools anzeigenBefehle, die den Pool in irgendeiner Form verändern,
- werden aufgezeichnet. Diese Befehle beinhalten das Erstellen
+ werden aufgezeichnet. Diese Befehle beinhalten das Erstellen
von Datasets, verändern von Eigenschaften oder das Ersetzen
einer Platte. Diese Historie ist nützlich um
nachzuvollziehen, wie ein Pool aufgebaut ist und welcher
- Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die
+ Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die
aufgezeichnete Historie wird nicht in einer Logdatei
festgehalten, sondern ist Teil des Pools selbst. Das Kommando
zum darstellen dieser Historie lautet passenderweise
@@ -1605,17 +1604,17 @@ History for 'tank':
Die Ausgabe zeigt zpool und
zfs-Befehle, die ausgeführt wurden zusammen
mit einem Zeitstempel. Nur Befehle, die den Pool verändern
- werden aufgezeichnet. Befehle wie
- zfs list sind dabei nicht enthalten. Wenn
+ werden aufgezeichnet. Befehle wie
+ zfs list sind dabei nicht enthalten. Wenn
kein Name angegeben wird, erscheint die gesamte Historie aller
Pools.Der Befehl zpool history kann sogar
noch mehr Informationen ausgeben, wenn die Optionen
oder angegeben
- werden. Durch zeigt ZFS
- vom Benutzer eingegebene, als auch interne Ereignisse
- an.
+ werden. Durch zeigt
+ ZFS vom Benutzer eingegebene, als auch
+ interne Ereignisse an.&prompt.root; zpool history -i
History for 'tank':
@@ -1629,7 +1628,7 @@ History for 'tank':
Weitere Details lassen sich durch die Angabe von
entlocken. Historische Einträge werden in
- einem langen Format ausgegeben, einschliesslich Informationen
+ einem langen Format ausgegeben, einschließlich Informationen
wie der Name des Benutzers, welcher das Kommando eingegeben
hat und der Hostname, auf dem die Änderung erfolgte.
@@ -1642,7 +1641,7 @@ History for 'tank':
Die Ausgabe zeigt, dass der Benutzer root den gespiegelten Pool mit
- den beiden Platten
+ den beiden Platten
/dev/ada0 und
/dev/ada1 angelegt hat. Der Hostname
myzfsbox wird
@@ -1659,7 +1658,7 @@ History for 'tank':
eines Pools auszugeben. Die Pool Historie liefert wertvolle
Informationen, wenn Aktionen nachverfolgt werden müssen oder
zur Fehlerbeseitigung mehr Informationen gebraucht
- werden.
+ werden.
@@ -1670,7 +1669,7 @@ History for 'tank':
zeigt die Menge von freiem und belegtem Speicherplatz auf dem
Pool an, wieviele Lese- und Schreiboperationen pro Sekunde
durchgeführt werden und die aktuell verwendete
- I/O-Bandbreite. Standardmässig werden alle
+ I/O-Bandbreite. Standardmäßig werden alle
Pools in einem System überwacht und angezeigt. Ein Poolname
kann angegeben werden, um die Anzeige auf diesen Pool zu
beschränken. Ein einfaches Beispiel:
@@ -1684,7 +1683,7 @@ data 288G 1.53T 2 11 11.3K 57.1K
Um kontinuierlich die I/O-Aktivität zu
überprüfen, kann eine Zahl als letzter Parameter angegeben
werden, die ein Intervall in Sekunden angibt, die zwischen den
- Aktulisierungen vergeben soll. Die nächste Zeile mit
+ Aktualisierungen vergehen soll. Die nächste Zeile mit
Statistikinformationen wird dann nach jedem Intervall
ausgegeben. Drücken Sie
@@ -1748,29 +1747,29 @@ data 288G 1.53T 2 12 9.23K 61.5K
Anders als in traditionellen Festplatten- und
Volumenmanagern wird der Plattenplatz in
- ZFS not
+ ZFS nicht
vorher allokiert. Bei traditionellen Dateisystemen gibt es,
nachdem der Plattenplatz partitioniert und
zugeteilt wurde, keine Möglichkeit, ein zusätzliches
Dateisystem hinzuzufügen, ohne eine neue Platte
- anzuschliessen. Mit
+ anzuschließen. Mit
ZFS lassen sich neue Dateisysteme zu jeder
Zeit anlegen. Jedes Dataset
besitzt Eigenschaften wie Komprimierung, Deduplizierung,
Zwischenspeicher (caching), Quotas, genauso wie andere
nützliche Einstellungen wie Schreibschutz, Unterscheidung
- zwischen Gross- und Kleinschreibung, Netzwerkfreigaben und
+ zwischen Groß- und Kleinschreibung, Netzwerkfreigaben und
einen Einhängepunkt. Datasets können ineinander verschachtelt
werden und Kind-Datasets erben die Eigenschaften ihrer Eltern.
- Jedes Dataset kann als eine Einheit verwaltet,
+ Jedes Dataset kann als eine Einheit verwaltet,
delegiert,
repliziert,
mit Schnappschüssen
versehen, in Jails
gesteckt und zerstört werden. Es gibt viele Vorteile,
ein separates Dataset für jede Art von Dateien anzulegen. Der
- einzige Nachteil einer grossen Menge an Datasets ist, dass
+ einzige Nachteil einer großen Menge an Datasets ist, dass
manche Befehle wie zfs list langsamer sind
und dass das Einhängen von hunderten oder hunderttausenden von
Datasets de &os;-Bootvorgang verzögert.
@@ -1887,7 +1886,7 @@ mypool/var/tmp 152K 93.2G 152K /var/tmp
Ein Volume kann mit einem beliebigen Dateisystem
formatiert werden oder auch ohne ein Dateisystem als reiner
- Datenspeicher zu dienen. Für den Benutzer erscheint ein
+ Datenspeicher fungieren. Für den Benutzer erscheint ein
Volume als eine gewöhnliche Platte. Indem gewöhnliche
Dateisysteme auf diesen zvols angelegt
werden, ist es möglich, diese mit Eigenschaften auszustatten,
@@ -1928,7 +1927,7 @@ Filesystem Size Used Avail Capacity Mounted on
neuen Elternteil geerbt wird). Dieses Verhalten kann durch
die Option verhindert werden.
- Ein Dataset umbenennen und unter einem anderes
+ Ein Dataset umbenennen und unter einem anderen
Elterndataset verschieben:&prompt.root; zfs list
@@ -1992,11 +1991,10 @@ mypool/var/newname@new_snapshot_name 0 - 87.5K -property=valuedataset fest. Die
meisten Eigenschaften haben eine begrenzte Menge von gültigen
- Werten. zfs get stellt diese dar und zeigt
- jede mögliche Eigenschaft und gültige Werte an. Die meisten
- Eigenschaften können wieder auf ihren Ausgangswert
- zurückgesetzt werden über
- zfs inherit.
+ Werten. zfs get stellt diese dar und zeigt
+ jede mögliche Eigenschaft und gültige Werte an. Die meisten
+ Eigenschaften können über zfs inherit
+ wieder auf ihren Ausgangswert zurückgesetzt werden.Benutzerdefinierte Eigenschaften lassen sich ebenfalls
setzen. Diese werden Teil der Konfiguration des Datasets und
@@ -2038,11 +2036,11 @@ tank custom:costcenter - -
COW), können Schnappschüsse schnell
erstellt werden durch das Aufheben der älteren Version der
Daten auf der Platte. Falls kein Snapshot existiert, wird der
- Speicherplatz wieder für zukünfitge Verwendung freigegeben
+ Speicherplatz wieder für zukünftige Verwendung freigegeben
wenn Daten geschrieben oder gelöscht werden. Schnappschüsse
sparen Speicherplatz, indem diese nur die Unterschiede
zwischen dem momentanen Dataset und der vorherigen Version
- aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets
+ aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets
erlaubt, nicht auf individuellen Dateien oder Verzeichnissen.
Wenn ein Schnappschuss eines Datasets erstellt wird, wird
alles was darin enthalten ist, dupliziert. Das beinhaltet
@@ -2057,14 +2055,14 @@ tank custom:costcenter - -
eine Anwendung Dateien auf mehreren Datasets ablegt, die
miteinander in Verbindung stehen oder voneinander abhängig
sind. Ohne Schnappschüsse würde ein Backup Kopien dieser
- Dateien zu unterschiedlichen Zeitpunkten enthalten.
+ Dateien zu unterschiedlichen Zeitpunkten enthalten.Schnappschüsse in ZFS bieten eine
Vielzahl von Eigenschaften, die selbst in anderen
Dateisystemen mit Schnappschussfunktion nicht vorhanden sind.
Ein typisches Beispiel zur Verwendung von Schnappschüssen ist,
den momentanen Stand des Dateisystems zu sichern,
- wenn eine riskante Aktion wie das Installieren von Softwre
+ wenn eine riskante Aktion wie das Installieren von Software
oder eine Systemaktualisierung durchgeführt wird. Wenn diese
Aktion fehlschlägt, so kann der Schnappschuss zurückgerollt
werden und das System befindet sich wieder in dem gleichen
@@ -2073,11 +2071,11 @@ tank custom:costcenter - -
Schnappschuss gelöscht werden, um Speicherplatz frei zu geben.
Ohne Schnappschüsse, wird durch ein fehlgeschlagenes Update
eine Wiederherstellung der Sicherung fällig, was oft mühsam
- und zeitaufwändig ist, ausserdem ist währenddessen das System
+ und zeitaufwändig ist, außerdem ist währenddessen das System
nicht verwendbar. Schnappschüsse lassen sich schnell
und mit wenig bis gar keiner Ausfallzeit zurückrollen, selbst
wenn das System im normalen Betrieb läuft. Die Zeitersparnis
- ist enorm, wenn mehrere Terabyte grosse Speichersysteme
+ ist enorm, wenn mehrere Terabyte große Speichersysteme
eingesetzt werden und viel Zeit für das Kopieren der Daten vom
Sicherungssystem benötigt wird. Schnappschüsse sind jedoch
keine Ersatz für eine Vollsicherung des Pools, können jedoch
@@ -2161,12 +2159,12 @@ mypool/usr/home@my_recursive_snapshot 0 - 184K -
Schnappschüsse in COW
Manier funktionieren. Sie zeichnen nur die Änderungen
(delta) auf, die währenddessen
- enstanden sind und nicht noch einmal den gesamten Inhalt des
- Dateisystems. Das bedeutet, dass Schnappschüsse nur wenig
- Speicherplatz benötigen, wenn nur kleine Änderungen
+ entstanden sind und nicht noch einmal den gesamten Inhalt
+ des Dateisystems. Das bedeutet, dass Schnappschüsse nur
+ wenig Speicherplatz benötigen, wenn nur kleine Änderungen
vorgenommen werden. Der Speicherverbrauch kann sogar noch
deutlicher gemacht werden, wenn eine Datei auf das Dataset
- kopiert wird und anschliessend ein zweiter Schnappschuss
+ kopiert wird und anschließend ein zweiter Schnappschuss
angelegt wird:&prompt.root; cp /etc/passwd/var/tmp
@@ -2180,7 +2178,7 @@ mypool/var/tmp@after_cp 0 - 118K -Der zweite Schnappschuss enthält nur die Änderungen am
Dataset, die nach der Kopieraktion gemacht wurden. Dies
bedeutet enorme Einsparungen von Speicherplatz. Beachten
- Sie, dass sich die Grösse des Schnappschusses
+ Sie, dass sich die Größe des Schnappschusses
mypool/var/tmp@my_recursive_snapshot
in der Spalte USED ebenfalls
geändert hat, um die Änderungen von sich selbst und dem
@@ -2250,7 +2248,7 @@ M /var/tmp/
Vergleicht man die Ausgabe mit der Tabelle, wird klar,
dass passwd
- hinzugefügt wurde, nachdem der Schnappschuss
+ hinzugefügt wurde, nachdem der Schnappschuss
mypool/var/tmp@my_recursive_snapshot
erstellt wurde. Das resultierte ebenfalls in einer Änderung
am darüberliegenden Verzeichnis, das unter
@@ -2278,10 +2276,11 @@ M /var/tmp/
Ein Administrator, der für die Sicherung zuständig ist,
kann zwei Schnappschüsse miteinander vergleichen, die vom
- sendenen Host empfangen wurden, um festzustellen, welche
- Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu den
- Abschnitt Replication
- um weitere Informationen zu erhalten.
+ sendenden Host empfangen wurden, um festzustellen, welche
+ Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu
+ den Abschnitt Replication um weitere
+ Informationen zu erhalten.
@@ -2290,7 +2289,7 @@ M /var/tmp/
Wenn zumindest ein Schnappschuss vorhanden ist, kann
dieser zu einem beliebigen Zeitpunkt zurückgerollt werden.
In den meisten Fällen passiert dies, wenn der aktuelle
- Zustand des Datasets nicht mehr benötigt wurd und eine
+ Zustand des Datasets nicht mehr benötigt wird und eine
ältere Version bevorzugt wird. Szenarien wie lokale
Entwicklungstests, die fehlgeschlagen sind, defekte
Systemaktualisierungen, welche die Funktionalität des
@@ -2309,7 +2308,7 @@ M /var/tmp/
dies passiert, ist das Dataset immer noch aktiv und
erreichbar ohne dass eine Ausfallzeit nötig wäre. Sobald
der Schnappschuss zurückgerollt wurde, besitzt das Dataset
- den gleichen Zustand, den es besass, als der Schnappschuss
+ den gleichen Zustand, den es besaß, als der Schnappschuss
angelegt wurde. Alle anderen Daten in diesem Dataset, die
nicht Teil des Schnappschusses sind, werden verworfen.
Einen Schnappschuss des aktuellen Zustandes des Datasets vor
@@ -2318,9 +2317,9 @@ M /var/tmp/
der Benutzer vor und zurück zwischen den Schnappschüssen
springen, ohne wertvolle Daten zu verlieren.
- Im ersten Beispiel wird en Schnappschuss aufgrund eines
+ Im ersten Beispiel wird ein Schnappschuss aufgrund eines
unvorsichtigen rm-Befehls zurückgerollt,
- der zuviele Daten gelöscht hat, als vorgesehen.
+ der mehr Daten gelöscht hat, als vorgesehen.&prompt.root; zfs list -rt all mypool/var/tmp
NAME USED AVAIL REFER MOUNTPOINT
@@ -2339,7 +2338,7 @@ vi.recover
Dateien gelöscht wurden und möchte diese zurück haben.
ZFS bietet eine einfache Möglichkeit,
diese durch zurückrollen zurück zu bekommen, allerdings nur,
- wenn Schnappschüsse von wichtigen Daten regelmässig angelegt
+ wenn Schnappschüsse von wichtigen Daten regelmäßig angelegt
werden. Um die Dateien zurückzuerhalten und vom letzten
Schnappschuss wieder zu beginnen, geben Sie ein:
@@ -2369,9 +2368,9 @@ mypool/var/tmp@diff_snapshot
zwischen dem momentanen Stand des Datasets und dem
Schnappschuss, zu dem der Benutzer zurückrollen möchte,
existieren. Um das Zurückrollen durchzuführen, müssen die
- Schnappschüsse gelöscht werden. ZFS kann
+ Schnappschüsse gelöscht werden. ZFS kann
nicht alle Änderungen zwischen verschiedenen Zuständen
- eines Datasets verfolgen, da Schnappschüsse zur gelesen
+ eines Datasets verfolgen, da Schnappschüsse nur gelesen
werden können. ZFS wird nicht die
betroffenen Schnappschüsse löschen, es sei denn, der
Benutzer verwendet die Option , um
@@ -2400,7 +2399,7 @@ vi.recover
Schnappschüsse sind unter einem versteckten Verzeichnis
unter dem Eltern-Dataset eingehängt:
.zfs/snapshots/snapshotname.
- Standardmässig werden diese Verzeichnisse nicht von einem
+ Standardmäßig werden diese Verzeichnisse nicht von einem
gewöhnlichen ls -a angezeigt. Obwohl
diese Verzeichnisse nicht angezeigt werden, sind diese
trotzdem vorhanden und der Zugriff darauf erfolgt wie auf
@@ -2508,7 +2507,7 @@ cp: /var/tmp/.zfs/snapshot/after_cp/rc.conf: Read-only file system
Schnappschusses.Um diese Klon-Funktionalität zu demonstrieren, wird dieses
- Beispiel-Dataset verwendet:
+ Beispiel-Dataset verwendet:
&prompt.root; zfs list -rt all camino/home/joe
NAME USED AVAIL REFER MOUNTPOINT
@@ -2548,7 +2547,7 @@ usr/home/joenew 1.3G 31k 1.3G 0% /usr/home/joenew
Eigenschaft namens origin auf. Sobald die
Abhängigkeit zwischen dem Schnappschuss und dem Klon durch das
Befördern des Klons mittels zfs promote
- entfernt wurde, wird auch die
+ entfernt wurde, wird auch die
origin-Eigenschaft des Klons entfernt, da
es sich nun um ein eigenständiges Dataset handelt. Dieses
Beispiel demonstriert dies:
@@ -2584,14 +2583,14 @@ usr/home/joe 1.3G 128k 1.3G 0% /usr/home/joe
Der geklonte Schnappschuss wird jetzt wie ein
gewöhnliches Dataset behandelt. Es enthält alle Daten aus dem
ursprünglichen Schnappschuss inklusive der Dateien, die
- anschliessend hinzugefügt wurden, wie
+ anschließend hinzugefügt wurden, wie
loader.conf. Klone können in
unterschiedlichen Szenarien eingesetzt werden, um nützliche
Eigenschaften für ZFS-Anwender zur Verfügung zu stellen.
Zum Beispiel können Jails als Schnappschüsse bereitgestellt
werden, die verschiedene Arten von installierten Anwendungen
anbieten. Anwender können diese Schnappschüsse klonen und
- ihre eigenen Anwendungen nach belieben hinzufügen. Sobald
+ ihre eigenen Anwendungen nach Belieben hinzufügen. Sobald
sie mit den Änderungen zufrieden sind, können die Klone zu
vollständigen Datasets ernannt werden und dem Anwender zur
Verfügung gestellt werden, als würde es sich um echte
@@ -2606,7 +2605,7 @@ usr/home/joe 1.3G 128k 1.3G 0% /usr/home/joe
Daten auf einem einzigen Pool an einem Platz
aufzubewahren, setzt diese dem Risiko aus, gestohlen oder
Opfer von Naturgewalten zu werden, sowie menschlichem
- Versagen auszusetzen. Regelmässige Sicherungen des gesamten
+ Versagen auszusetzen. Regelmäßige Sicherungen des gesamten
Pools ist daher unerlässlich. ZFS bietet
eine Reihe von eingebauten Serialisierungsfunktionen an, die
in der Lage ist, eine Repräsentation der Daten als Datenstrom
@@ -2630,8 +2629,8 @@ backup 960M 77K 896M 0% 1.00x ONLINE -
mypool 984M 43.7M 940M 4% 1.00x ONLINE -
Der Pool namens mypool ist der
- primäre Pool, auf den regelmässig Daten geschrieben und auch
- wieder gelesen werden. Ein zweiter Pool, genannt
+ primäre Pool, auf den regelmäßig Daten geschrieben und auch
+ wieder gelesen werden. Ein zweiter Pool, genannt
backup wird verwendet, um als
Reserve zu dienen im Falle, dass der primäre Pool nicht zur
Verfügung steht. Beachten Sie, dass diese Ausfallsicherung
@@ -2644,7 +2643,7 @@ mypool 984M 43.7M 940M 4% 1.00x ONLINE -
den backup-Pool abgelegt werden.
Nur Schnappschüsse lassen sich auf diese Weise replizieren.
Änderungen, die seit dem letzten Schnappschuss entstanden
- sind, werden nicht mit repliziert.
+ sind, werden nicht mit repliziert.&prompt.root; zfs snapshot mypool@backup1
&prompt.root; zfs list -t snapshot
@@ -2667,10 +2666,10 @@ You must redirect standard output.Um ein Dataset mit zfs send zu
replizieren, leiten Sie dieses in eine Datei auf dem
eingehängten Backup-Pool um. Stellen Sie sicher, dass der
- Pool genug freien Speicherplatz besitzt, um die Grösse des
+ Pool genug freien Speicherplatz besitzt, um die Größe des
gesendeten Schnappschusses aufzunehmen. Das beinhaltet alle
Daten im Schnappschuss, nicht nur die Änderungen zum
- vorherigen Schnappschuss.
+ vorherigen Schnappschuss.&prompt.root; zfs send mypool@backup1 > /backup/backup1
&prompt.root; zpool list
@@ -2777,12 +2776,12 @@ mypool@replica2 0 - 55.0M -
Dateien und Daten vom Pool
mypool verfügbar. Wenn die
Option angegeben wird, werden die
- Eigenschaften des Datasets kopiert, einschliesslich der
- Komprimierungseinstellungen, Quotas und Einhängpunkte.
+ Eigenschaften des Datasets kopiert, einschließlich der
+ Komprimierungseinstellungen, Quotas und Einhängepunkte.
Wird die Option verwendet, so werden
alle Kind-Datasets des angegebenen Datasets kopiert,
zusammen mit ihren Eigenschaften. Senden und Empfangen kann
- automatisiert werden, so dass regelmässig Sicherungen auf
+ automatisiert werden, so dass regelmäßig Sicherungen auf
dem zweiten Pool angelegt werden.
@@ -2791,7 +2790,7 @@ mypool@replica2 0 - 55.0M -
SSH senden
Datenströme über das Netzwerk zu schicken ist eine gute
- Methode, um Sicherungen ausserhalb des Systems anzulegen.
+ Methode, um Sicherungen außerhalb des Systems anzulegen.
Jedoch ist dies auch mit einem Nachteil verbunden. Daten,
die über die Leitung verschickt werden, sind nicht
verschlüsselt, was es jedem erlaubt, die Daten abzufangen
@@ -2801,9 +2800,9 @@ mypool@replica2 0 - 55.0M -
das Internet auf ein entferntes System gesendet werden.
SSH kann benutzt werden, um
durch Verschlüsselung geschützte Daten über eine
- Netzwerkverbindung zu übertragen. Da ZFS
+ Netzwerkverbindung zu übertragen. Da ZFS
nur die Anforderung hat, dass der Strom von der
- Standardausgaben umgeleitet wird, ist es relativ einfach,
+ Standardausgabe umgeleitet wird, ist es relativ einfach,
diesen durch SSH zu leiten. Um
den Inhalt des Dateisystems während der Übertragung und auf
dem entfernten System weiterhin verschlüsselt zu lassen,
@@ -2811,10 +2810,10 @@ mypool@replica2 0 - 55.0M -
xlink:href="http://wiki.freebsd.org/PEFS">PEFS
nach.
- Ein paar Einstellungen udn Sicherheitsvorkehrungen
+ Ein paar Einstellungen und Sicherheitsvorkehrungen
müssen zuvor abgeschlossen sein. Es werden hier nur die
nötigen Schritte für die zfs send-Aktion
- gezeigt. Weiterführende Informationen zu
+ gezeigt. Weiterführende Informationen zu
SSH, gibt es im Kapitel
.
@@ -2836,13 +2835,13 @@ mypool@replica2 0 - 55.0M -
root.
Allerdings ist das Anmelden als root aus
- Sicherheitsgründen standardmässig deaktiviert. Mit
+ Sicherheitsgründen standardmäßig deaktiviert. Mit
ZFS Delegation
lassen sich nicht-root-Benutzer auf jedem
System einrichten, welche die nötigen Rechte besitzen,
um die Sende- und Empfangsoperation
- durchzuführen.
+ durchzuführen.
@@ -2852,7 +2851,7 @@ mypool@replica2 0 - 55.0M -
- Um den Pool einzuhängen, muss der unpriviligierte
+ Um den Pool einzuhängen, muss der unprivilegierte
Benutzer das Verzeichnis besitzen und gewöhnliche
Benutzern muss die Erlaubnis gegeben werden, das
Dateisystem einzuhängen. Auf dem empfangenden System
@@ -2867,7 +2866,7 @@ vfs.usermount: 0 -> 1
- Der unpriviligierte Benutzer hat jetzt die Fähigkeit,
+ Der unprivilegierte Benutzer hat jetzt die Fähigkeit,
Datasets zu empfangen und einzuhängen und das
home-Dataset auf das entfernte
System zu replizieren:
@@ -2895,7 +2894,7 @@ vfs.usermount: 0 -> 1
wird das Dateisystem nicht auf der
Empfängerseite eingehängt. Wenn
enthalten ist, werden mehr Details zum Transfer angezeigt
- werden, einschliesslich der vergangenen Zeit und der Menge
+ werden, einschließlich der vergangenen Zeit und der Menge
an übertragenen Daten.
@@ -2905,7 +2904,7 @@ vfs.usermount: 0 -> 1
Dataset-Quotas
werden eingesetzt, um den Speicherplatz einzuschränken, den
- ein bestimmtes Dataset verbrauchen kann. Referenz-Quotas
funktionieren auf eine ähnliche Weise, jedoch wird dabei der
Speicherplatz des Datasets selbst gezählt, wobei
@@ -2917,19 +2916,19 @@ vfs.usermount: 0 -> 1
gesamten Speicherplatz im Pool oder auf dem Dataset zu
verbrauchen.
- Um eine 10 GB grösse Quota auf dem Dataset
+ Um ein 10 GB großes Quota auf dem Dataset
storage/home/bob zu erzwingen, verwenden
Sie folgenden Befehl:&prompt.root; zfs set quota=10G storage/home/bob
- Um eine Referenzquota von 10 GB für
+ Um ein Referenzquota von 10 GB für
storage/home/bob festzulegen, geben Sie
ein:&prompt.root; zfs set refquota=10G storage/home/bob
- Um eine Quota für storage/home/bob
+ Um das Quota für storage/home/bob
wieder zu entfernen:&prompt.root; zfs set quota=none storage/home/bob
@@ -2961,13 +2960,13 @@ vfs.usermount: 0 -> 1
- Um beispielsweise eine Benutzerquota von 50 GB für
+ Um beispielsweise ein Benutzerquota von 50 GB für
den Benutzer names joe zu
erzwingen:&prompt.root; zfs set userquota@joe=50G
- Um jegliche Quota zu entfernen:
+ Um jegliche Quotas zu entfernen:&prompt.root; zfs set userquota@joe=none
@@ -2986,7 +2985,7 @@ vfs.usermount: 0 -> 1
lautet:
groupquota@group=size.
- Um eine Quota für die Gruppe
+ Um ein Quota für die Gruppe
firstgroup von 50 GB zu
setzen, geben Sie ein:
@@ -3017,8 +3016,8 @@ vfs.usermount: 0 -> 1
&man.zfs.1;.Benutzer mit ausreichenden Rechten sowie root können die Quota für
- storage/home/bob anzeigen:
+ class="username">root können das Quota für
+ storage/home/bob anzeigen lassen:&prompt.root; zfs get quota storage/home/bob
@@ -3037,7 +3036,7 @@ vfs.usermount: 0 -> 1
Das generelle Format der
reservation-Eigenschaft ist
reservation=size.
- Um also eine Reservierung von 10 GB auf
+ Um also eine Reservierung von 10 GB auf
storage/home/bob festzulegen, geben Sie
Folgendes ein:
@@ -3083,8 +3082,8 @@ vfs.usermount: 0 -> 1
Kompromissen. Mit der Einführung von
LZ4-Komprimierung in ZFS
v5000, ist es möglich, Komprimierung für den gesamten Pool zu
- aktivieren, ohne die grossen Geschwindigkeitseinbussen der
- anderen Algorithmen. Der grösste Vorteil von
+ aktivieren, ohne die großen Geschwindigkeitseinbußen der
+ anderen Algorithmen. Der größte Vorteil von
LZ4 ist die Eigenschaft früher
Abbruch. Wenn LZ4 nicht
mindestens 12,5% Komprimierung im ersten Teil der Daten
@@ -3095,7 +3094,7 @@ vfs.usermount: 0 -> 1
Komprimierungsalgorithmen in ZFS, lesen Sie
den Eintrag Komprimierung im
- Abschnitt Terminologie
+ Abschnitt TerminologieDer Administrator kann die Effektivität der Komprimierung
über eine Reihe von Dataset-Eigenschaften überwachen.
@@ -3132,8 +3131,8 @@ mypool/compressed_dataset logicalused 496G -
jedoch die Änderung in der Komprimierung dazu führt, dass das
Quota-Limit erreicht ist.
- Kompression kann ein ebenso unerwartet mit Sicherungen
- interagiereni. Quotas werden oft verwenden, um einzuschränken,
+ Kompression kann ebenso unerwartet mit Sicherungen
+ interagieren. Quotas werden oft verwendet, um einzuschränken,
wieviele Daten gespeichert werden können um sicherzustellen,
dass ausreichend Speicherplatz für die Sicherung vorhanden
ist. Wenn jedoch Quotas Komprimierung nicht berücksichtigen,
@@ -3154,7 +3153,7 @@ mypool/compressed_dataset logicalused 496G -
Blocks. Gewaltige Speicherplatzeinsparungen sind möglich wenn
die Daten viele Duplikate von Dateien oder wiederholte
Informationen enthalten. Seien Sie gewarnt: Deduplizierung
- benötigt eine extrem grosse Menge an Hauptspeicher und die
+ benötigt eine extrem große Menge an Hauptspeicher und die
meistens Einsparungen können stattdessen durch das Aktivieren
von Komprimierung erreicht werden.
@@ -3200,7 +3199,7 @@ pool 2.84G 20.9M 2.82G 0% 3.00x ONLINE -
deduplizierten Blöcke zu verwalten.Deduplizierung ist nicht immer gewinnbringend, besonders
- die Daten auf dem Pool nicht redundant sind.
+ wenn die Daten auf dem Pool nicht redundant sind.
ZFS kann potentielle
Speicherplatzeinsparungen durch Deduplizierung auf einem Pool
simulieren:
@@ -3227,10 +3226,10 @@ refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE
dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
Nachdem zdb -S die Analyse des Pool
- abgeschlossen hat. zeigt es die Speicherplatzeinsparungen, die
+ abgeschlossen hat, zeigt es die Speicherplatzeinsparungen, die
durch aktivierte Deduplizierung erreichbar sind, an. In
diesem Fall ist 1.16 ein sehr schlechter
- Faktor, der grösstenteils von Einsparungen durch Komprimierung
+ Faktor, der größtenteils von Einsparungen durch Komprimierung
beeinflusst wird. Aktivierung von Deduplizierung auf diesem
Pool würde also keine signifikante Menge an Speicherplatz
einsparen und ist daher nicht die Menge an Speicher wert, die
@@ -3239,7 +3238,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
ein Systemadministrator die Speicherplatzbelegung planen und
entscheiden, ob es sich lohnt, den zusätzlichen Hauptspeicher
für die Deduplizierung anhand des späteren Workloads
- aufzuwenden. Wenn sich die Daten verhältnismässig gut
+ aufzuwenden. Wenn sich die Daten verhältnismäßig gut
komprimieren lassen, sind die Speicherplatzeinsparungen sehr
gut. Es wird empfohlen, in dieser Situation zuerst die
Komprimierung zu aktivieren, da diese auch erhöhte
@@ -3254,7 +3253,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
ZFS und Jails
- Um ein ZFS-Dataset einem
+ Um ein ZFS-Dataset einem
Jail zuzuweisen, wird der Befehl
zfs jail und die dazugehörige Eigenschaft
jailed verwendet. Durch Angabe von
@@ -3265,8 +3264,8 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
muss die Eigenschaft jailed gesetzt sein.
Sobald ein Dataset sich im Jail befindet, kann es nicht mehr
länger auf dem Hostsystem eingehängt werden, da es
- Einhängpunkte aufweisen könnte, welche die Sicherheit des
- Systems gefärden.
+ Einhängepunkte aufweisen könnte, welche die Sicherheit des
+ Systems gefährden.
@@ -3274,7 +3273,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
Delegierbare AdministrationEin umfassendes System zur Berechtigungsübertragung erlaubt
- unpriviligierten Benutzern,
+ unprivilegierten Benutzern,
ZFS-Administrationsaufgaben durchzuführen.
Beispielsweise, wenn jedes Heimatverzeichnis eines Benutzers ein
Dataset ist, können Benutzer das Recht darin erhalten,
@@ -3302,7 +3301,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
erlauben, Dateisysteme einzubinden. Es gibt eine weitere
Einschränkung um Missbrauch zu verhindern:
nicht-root
- Benutzer müssen Besitzer des Einhängpunktes sein, an dem das
+ Benutzer müssen Besitzer des Einhängepunktes sein, an dem das
Dateisystem eingebunden werden soll.
@@ -3336,13 +3335,13 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
vfs.zfs.arc_max
- - Maximale Grösse des ARC.
Die Voreinstellung ist der gesamte RAM
weniger 1 GB oder die Hälfte vom
RAM, je nachdem, was mehr ist.
Allerdings sollte ein niedriger Wert verwendet werden,
- wenn das System weitere Dienste oder Prozesse laudfen
+ wenn das System weitere Dienste oder Prozesse laufen
lässt, welche Hauptspeicher benötigen. Dieser Wert kann
nur zur Bootzeit eingestellt werden und wird in
/boot/loader.conf festgelegt.
@@ -3354,10 +3353,10 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
- Schränkt die Menge des ARC
ein, welche für die Speicherung von Metadaten verwendet
- wird. Die Voreinstellun ist ein Viertel von
+ wird. Die Voreinstellung ist ein Viertel von
vfs.zfs.arc_max. Diesen Wert zu
erhöhen steigert die Geschwindigkeit, wenn die Arbeitslast
- Operationen auf einer grossen Menge an Dateien und
+ Operationen auf einer großen Menge an Dateien und
Verzeichnissen oder häufigen Metadatenoperationen
beinhaltet. Jedoch bedeutet dies auch weniger Dateidaten,
die in den
vfs.zfs.arc_min
- - Minimale Grösse des ARC.
Der Standard beträgt die Hälfte von
vfs.zfs.arc_meta_limit. Passen Sie
@@ -3386,7 +3385,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
vfs.zfs.vdev.cache.size
- Eine vorallokierte Menge von Speicher, die als Cache für
- jedes Gerät im Pool reserviert wird. Die Gesamtgrösse von
+ jedes Gerät im Pool reserviert wird. Die Gesamtgröße von
verwendetem Speicher ist dieser Wert multipliziert mit der
Anzahl an Geräten. Nur zur Bootzeit kann dieser Wert
angepasst werden und wird in
@@ -3396,25 +3395,25 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
vfs.zfs.min_auto_ashift
- - Minimaler ashift-Wert (Sektorgrösse),
+ - Minimaler ashift-Wert (Sektorgröße),
welche zur Erstellungszeit des Pools automatisch verwendet
wird. Der Wert ist ein Vielfaches zur Basis Zwei. Der
Standardwert von 9 repräsentiert
- 2^9 = 512, eine Sektorgrösse von 512
- Bytes. Um write amplification zu
+ 2^9 = 512, eine Sektorgröße von 512
+ Bytes. Um write amplification zu
vermeiden und die bestmögliche Geschwindigkeit zu
- erhalten, setzen Sie diesen Wert auf die grösste
- Sektorgrösse, die bei einem Gerät im Pool vorhanden
+ erhalten, setzen Sie diesen Wert auf die größte
+ Sektorgröße, die bei einem Gerät im Pool vorhanden
ist.
- Viele Geräte besitzen 4 KB grosse Sektoren. Die
+ Viele Geräte besitzen 4 KB große Sektoren. Die
Verwendung der Voreinstellung 9 bei
ashift mit diesen Geräten resultiert in
einer write amplification auf diesen Geräten. Daten,
welche in einem einzelnen 4 KB Schreibvorgang Platz
finden würden, müssen stattdessen in acht 512-byte
Schreibvorgänge aufgeteilt werden. ZFS
- versucht, die allen Geräten zugrundeliegende Sektorgrösse
+ versucht, die allen Geräten zugrundeliegende Sektorgröße
während der Poolerstellung zu lesen, jedoch melden viele
Geräte mit 4 KB Sektoren, dass ihre Sektoren aus
Kompatibilitätsgründen 512 Bytes betragen. Durch das
@@ -3427,14 +3426,14 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
Erzwingen von 4 KB Blöcken ist ebenfalls
hilfreich auf Pools bei denen Plattenaufrüstungen geplant
sind. Zukünftige Platten werden wahrscheinlich
- 4 KB grosse Sektoren und der Wert von
+ 4 KB große Sektoren und der Wert von
ashift lässt sich nach dem Erstellen
des Pools nicht mehr ändern.
- In besonderen Fällen ist die kleinere Blockgrösse von
- 512-Bye vorzuziehen. Weniger Daten werden bei kleinen,
+ In besonderen Fällen ist die kleinere Blockgröße von
+ 512-Byte vorzuziehen. Weniger Daten werden bei kleinen,
zufälligen Leseoperationen übertragen, was besonders bei
- 512-Byte grossen Platten für Datenbanken oder Plattenplatz
+ 512-Byte großen Platten für Datenbanken oder Plattenplatz
für virtuelle Maschinen der Fall ist. Dies kann bessere
Geschwindigkeit bringen, ganz besonders wenn eine kleinere
ZFS record size verwendet wird.
@@ -3444,15 +3443,15 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
vfs.zfs.prefetch_disable
- Prefetch deaktivieren. Ein Wert von 0
- bedeutet aktiviert und 1 heisst
+ bedeutet aktiviert und 1 heißt
deaktiviert. Die Voreinstellung ist 0,
- ausser, das System besitzt weniger als
+ außer, das System besitzt weniger als
4 GB RAM. Prefetch funktioniert
durch das Lesen von grösseren Blöcken in den ARC als
angefordert wurden, in der Hoffnung, dass diese Daten
ebenfalls bald benötigt werden. Wenn die I/O-Last viele
- grosse Mengen von zufälligen Leseoperationen beinhaltet,
+ große Mengen von zufälligen Leseoperationen beinhaltet,
ist das Deaktivieren von prefetch eine
Geschwindigkeitssteigerung durch die Reduzierung von
unnötigen Leseoperationen. Dieser Wert kann zu jeder Zeit
@@ -3468,7 +3467,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
Langlebigkeit für SSDs, benötigt jedoch
zusätzliche Zeit. Wenn das Gerät bereits sicher gelöscht
wurde, kann durch deaktivieren dieser Option das
- Hinzufügen neuer Geräte schneller geschehen. Über
+ Hinzufügen neuer Geräte schneller geschehen. Über
&man.sysctl.8; lässt sich dieser Wert jederzeit
einstellen.
@@ -3479,7 +3478,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
- Steuert, ob neue Daten auf ein vdev geschrieben werden,
welches sich im Zustand DEGRADED befindet.
- Standardmässig ist dieser Wert 0, was
+ Standardmäßig ist dieser Wert 0, was
Schreibvorgänge zu jeglichem darüberliegenden vdev
verhindert, das sich in diesem Zustand befindet. Der
Administrator kann durch das Erlauben von Schreibvorgängen
@@ -3494,7 +3493,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
vfs.zfs.vdev.max_pending
- Begrenzt die Menge von ausstehenden I/O-Anfragen pro
- Gerät. Ein grösserer Wert wird die Gerätewarteschlange
+ Gerät. Ein größerer Wert wird die Gerätewarteschlange
für Befehle gefüllt lassen und möglicherweise besseren
Durchsatz erzeugen. Ein niedrigerer Wert reduziert die
Latenz. Jederzeit kann dieser Wert über &man.sysctl.8;
@@ -3537,7 +3536,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
SSD bis der erste Block aus dem L2ARC
verdrängt wurde. Diese Turbo Warmup Phase
- wurde etwickelt, um den Geschwindigkeitsverlust eines
+ wurde entwickelt, um den Geschwindigkeitsverlust eines
leeren L2ARC
nach einem Neustart zu reduzieren. Jederzeit kann dieser
@@ -3559,7 +3558,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
IOPS (I/Os Per Second), die von
scrub generiert werden. Die
Granularität der Einstellung ist bestimmt durch den Wert
- von kern.hz, welcher standardmässig auf
+ von kern.hz, welcher standardmäßig auf
auf 1000 Ticks pro Sekunde eingestellt ist. Diese
Einstellung kann geändert werden, was in einer
unterschiedlich effektiven Limitierung der
@@ -3592,7 +3591,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
Gesamt-IOPS (I/Os Pro Sekunde), die vom
resilver erzeugt werden. Die Granularität der Einstellung
wird durch den Wert von kern.hz
- bestimmt, welcher standardmässig 1000 Ticks pro Sekunde
+ bestimmt, welcher standardmäßig 1000 Ticks pro Sekunde
beträgt. Diese Einstellung lässt sich ändern, was in
einem unterschiedlich effizienten
IOPS-Limit resultiert. Die
@@ -3640,7 +3639,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
der vorherigen Transaktionsgruppe abgelaufen ist. Eine
Transaktionsgruppe kann verfrüht ausgelöst werden, wenn
genug Daten geschrieben werden. Der Standardwert beträgt
- 5 Sekunden. Ein grösserer Wert kann die
+ 5 Sekunden. Ein größerer Wert kann die
Lesegeschwindigkeit durch verzögern von asynchronen
Schreibvorgängen verbessern, allerdings kann dies
ungleiche Geschwindigkeiten hervorrufen, wenn eine
@@ -3685,8 +3684,8 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
Als absolutes Minimum sollte der gesamte verfügbare
Hauptspeicher mindestens ein Gigabyte betragen. Die
vorgeschlagene Menge an RAM ist bedingt
- durch die Poolgrösse und welche Eigenschaften von
- ZFS verwendet werden. Eine Faustregel
+ durch die Poolgröße und welche Eigenschaften von
+ ZFS verwendet werden. Eine Faustregel
besagt, dass 1 GB RAM für jedes 1 TB Storage
vorgesehen werden sollte. Wenn Deduplizierung zum Einsatz
kommt, besagt die Regel, dass 5 GB RAM pro TB an
@@ -3703,7 +3702,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
Wegen des begrenzten Addressraumes der &i386;-Plattform
müssen ZFS-Anwendern auf der
- &i386;-Architekture diese Option der
+ &i386;-Architektur diese Option der
Kernelkonfigurationsdatei hinzufügen, den Kernel erneut
bauen und das System neu starten:
@@ -3726,7 +3725,7 @@ dedup = 1.05, compress = 1.11, copies = 1.00, dedup * compress / copies = 1.16
&os;-Architekturen erhöht werden. Auf einem Testsystem mit
1 GB physischen Speichers wurden mit diesen Optionen in
/boot/loader.conf und einem
- anschliessenden Systemneustart Erfolge erzielt:
+ anschließenden Systemneustart Erfolge erzielt:vm.kmem_size="330M"
vm.kmem_size_max="330M"
@@ -3841,8 +3840,8 @@ vfs.zfs.vdev.cache.size="5M"
für ZFS Version 28. Spätere
Versionen setzen ZFS Version 5000
mit Feature Flags ein. Das neue Feature Flag System
- erlaubt eine grössere Kompatibilität mit anderen
- Implemtierungen von ZFS.
+ erlaubt eine größere Kompatibilität mit anderen
+ Implementierungen von ZFS.
@@ -3871,7 +3870,7 @@ vfs.zfs.vdev.cache.size="5M"
oder auch eine Partition
(/dev/ada0p3)
sein.
- Auf &os; gibt es keine Geschwindigkeitseinbussen
+ Auf &os; gibt es keine Geschwindigkeitseinbußen
bei der Verwendung einer Partition anstatt einer
kompletten Platte. Dies unterscheidet sich von
den Empfehlungen, welche in der Solaris
@@ -3883,11 +3882,11 @@ vfs.zfs.vdev.cache.size="5M"
xml:id="zfs-term-vdev-file">File
- Zusätzlich zu Festplatten können
ZFS-Pools aus regulären Dateien
- aufgebaut sein, was bespnders hilfreich ist, um zu
+ aufgebaut sein, was besonders hilfreich ist, um zu
testen und zu experimentieren. Verwenden Sie den
kompletten Pfad zu der Datei als Gerätepfad im
Befehl zpool create. Alle vdevs müssen mindestens
- 128 MB gross sein.
+ 128 MB groß sein.
@@ -3963,10 +3962,10 @@ vfs.zfs.vdev.cache.size="5M"
RAID-60-Verbund entsprechen.
Der Speicherplatz einer
RAID-Z-Gruppe ist ungefähr die
- Grösse der kleinsten Platte multipliziert mit der
+ Größe der kleinsten Platte multipliziert mit der
Anzahl von nicht-Paritätsplatten. Vier 1 TB
Platten in einem RAID-Z1
- besitzt eine effektive Grösse von ungefähr
+ besitzt eine effektive Größe von ungefähr
3 TB und ein Verbund von acht
1 TB-Platten als RAID-Z3
enthält 5 TB verfügbarer Plattenplatz.
@@ -3995,13 +3994,13 @@ vfs.zfs.vdev.cache.size="5M"
Geräten im Pool auf ein dediziertes Gerät,
typischerweise eine SSD. Ein
dediziertes Log-Gerät zu besitzen kann die
- Geschwindigkeit von Anwendungen mit einer grossen
+ Geschwindigkeit von Anwendungen mit einer großen
Anzahl von synchronen Schreibvorgängen, besonders
Datenbanken, signifikant steigern. Log-Geräte
können gespiegelt werden, jedoch wird
RAID-Z nicht unterstützt.
Werden mehrere Log-Geräte verwendet, so werden
- Schreibvorgänge gleichmässig unter diesen
+ Schreibvorgänge gleichmäßig unter diesen
aufgeteilt.
@@ -4044,7 +4043,7 @@ vfs.zfs.vdev.cache.size="5M"
die Transaktionsgruppe neue Schreibvorgänge
ablehnen, wenn diese ein Limit erreicht hat.
Sobald eine offene Transaktionsgruppe an das Limit
- stösst oder das vfs.zfs.txg.timeout
wurde erreicht, geht die Transaktionsgruppe in den
nächsten Zustand über.
@@ -4070,7 +4069,7 @@ vfs.zfs.vdev.cache.size="5M"
Speichermedium geschrieben werden müssen. Der
Prozess des Synchronisierens beinhaltet mehrere
Durchläufe. Der erste Prozess, welches der
- grösste, gefolgt von den Metadaten, ist,
+ größte, gefolgt von den Metadaten, ist,
beinhaltet alle geänderten Datenblöcke und kann
mehrere Durchläufe benötigen, um zum Ende zu
gelangen. Da das Allokieren von Speicher für die
@@ -4079,7 +4078,7 @@ vfs.zfs.vdev.cache.size="5M"
ein Durchlauf fertig ist, der keinen zusätzlichen
Speicher allokiert. Der Synchronisierungszustand
ist der Zustand, in dem auch
- synctasks abgeschlosse
+ synctasks abgeschlossen
werden. Synctasks sind administrative
Operationen, wie das Erstellen oder zerstören von
Schnappschüssen und Datasets, welche den Überblock
@@ -4243,9 +4242,9 @@ vfs.zfs.vdev.cache.size="5M"
erweitert werden durch das Erstellen von
mypool/home/user. Dieses
Enkelkind-Dataset wird alle Eigenschaften von den Eltern
- und Grosseltern erben. Eigenschaften auf einem Kind
+ und Großeltern erben. Eigenschaften auf einem Kind
können die geerbten Standardwerte der Eltern und
- Grosseltern ändern und überschreiben. Die Verwaltung
+ Großeltern ändern und überschreiben. Die Verwaltung
von Datasets und dessen Kindern lässt sich
delegieren.
@@ -4254,7 +4253,7 @@ vfs.zfs.vdev.cache.size="5M"
DateisystemEin ZFS-Dataset wird meistens
- als ein Dateisystem verwendet. Wie jedes andere
+ als ein Dateisystem verwendet. Wie jedes andere
Dateisystem kann auch ein
ZFS-Dateisystem irgendwo in der
Verzeichnishierarchie eingehängt werden und enthält
@@ -4296,7 +4295,7 @@ vfs.zfs.vdev.cache.size="5M"
Schnappschuss erstellt wurden. Kein zusätzlicher Platz
wird benötigt. Werden neue Daten auf das aktive
Dateisystem geschrieben, werden neue Blöcke allokiert,
- um diese Daten zu speichern. Die scheinbare Grösse des
+ um diese Daten zu speichern. Die scheinbare Größe des
Schnappschusses wird wachsen, da die Blöcke nicht mehr
länger im aktiven Dateisystem, sondern nur noch im
Schnappschuss Verwendung finden. Diese Schnappschüsse
@@ -4336,7 +4335,7 @@ vfs.zfs.vdev.cache.size="5M"
als neues Dataset aufzuspalten. Genau wie bei einem
Schnappschuss verbraucht ein Klon keinen zusätzlichen
Platz. Wenn neue Daten auf einen Klon geschrieben und
- neue Blöcke allokiert werden, wächst auch die Grösse des
+ neue Blöcke allokiert werden, wächst auch die Größe des
Klons. Wenn Blöcke im geklonten Dateisystem oder Volume
überschrieben werden, verringert sich auch der
Referenzzähler im vorherigen Block. Der Schnappschuss,
@@ -4389,7 +4388,7 @@ vfs.zfs.vdev.cache.size="5M"
Die fletcher-Algorithmen sind
schneller, aber dafür ist sha256 ein
starker kryptographischer Hash und besitzt eine viel
- niedrigere Chance auf Kollisionen zu stossen mit dem
+ niedrigere Chance auf Kollisionen zu stoßen mit dem
Nachteil geringerer Geschwindigkeit. Prüfsummen können
deaktiviert werden, dies wird aber nicht
empfohlen.
@@ -4399,7 +4398,7 @@ vfs.zfs.vdev.cache.size="5M"
CompressionJedes Dataset besitzt eine compression-Eigenschaft,
- die standardmässig ausgeschaltet ist. Diese Eigenschaft
+ die standardmäßig ausgeschaltet ist. Diese Eigenschaft
kann auf eine Reihe von Kompressionsalgorithmen
eingestellt werden. Dadurch werden alle neuen Daten,
die auf das Dataset geschrieben werden, komprimiert.
@@ -4411,7 +4410,7 @@ vfs.zfs.vdev.cache.size="5M"
LZ4 -
Wurde in der ZFS Poolversion
- 5000 (feature flags) hiinzugefügt und
+ 5000 (feature flags) hinzugefügt und
LZ4 ist jetzt der empfohlene
Kompressionsalgorithmus. LZ4
komprimiert ungefähr 50% schneller als
@@ -4469,7 +4468,7 @@ vfs.zfs.vdev.cache.size="5M"
Kompressionsalgorithmus, welcher nur fortlaufende
Aneinanderreihungen von Nullen komprimiert.
Dieser Komprimierungsalgorithmus ist nur sinnvoll,
- wenn das Dataset viele grosse Blöcke von Nullen
+ wenn das Dataset viele große Blöcke von Nullen
aufweist.
@@ -4526,8 +4525,8 @@ vfs.zfs.vdev.cache.size="5M"
im Hash vermerkt und die beiden Blöcke separat
gespeichert. Da die DDT den Hash
jedes einzigartigen Blocks speichern muss, benötigt sie
- eine grosse Menge an Speicher. Eine generelle
- Faustregel besagt, dass 5-6 GB RAM pro 1 TB
+ eine große Menge an Speicher. Eine generelle
+ Faustregel besagt, dass 5-6 GB RAM pro 1 TB
deduplizierter Daten benötigt werden. In Situationen,
in denen es nicht praktikabel ist, genug
RAM vorzuhalten, um die gesamte
@@ -4539,7 +4538,7 @@ vfs.zfs.vdev.cache.size="5M"
um die DDT zu speichern, was einen
guten Mittelweg zwischen schnellem Systemspeicher und
langsameren Platten darstellt. Bedenken Sie, dass durch
- die Verwendung von Komprimierung meistens genauso grosse
+ die Verwendung von Komprimierung meistens genauso große
Platzersparnis möglich ist, ohne den zusätzlichen
Hauptspeicherplatzbedarf.
@@ -4547,7 +4546,7 @@ vfs.zfs.vdev.cache.size="5M"
Scrub (Bereinigung)
- Anstat einer Konsistenzprüfung wie &man.fsck.8;
+ Anstatt einer Konsistenzprüfung wie &man.fsck.8;
verwendet ZFS
scrub. scrub
liest alle Datenblöcke, die auf dem Pool gespeichert
@@ -4593,7 +4592,7 @@ vfs.zfs.vdev.cache.size="5M"
sind verfügbar.
Quotas beschränken die Menge an Speicherplatz,
- welche ein Dataset, seine Kinder, einschliesslich
+ welche ein Dataset, seine Kinder, einschließlich
Schnappschüsse des Datasets, deren Kinder und die
Schnappschüsse von diesen Datasets, verbrauchen
können.
@@ -4608,7 +4607,7 @@ vfs.zfs.vdev.cache.size="5M"
Referenzquota
- Eine Referenzquota beschränkt die Menge an
+ Ein Referenzquota beschränkt die Menge an
Speicherplatz, die ein Dataset verbrauchen kann durch
das Erzwingen einer harten Grenze. Jedoch beinhaltet
diese harte Grenze nur Speicherplatz, die das Dataset
@@ -4655,7 +4654,7 @@ vfs.zfs.vdev.cache.size="5M"
Schnappschüsse.
Reservierungen jeder Art sind in vielen
- Situationen nützlich, so wie bei der Planung un dem
+ Situationen nützlich, so wie bei der Planung und dem
Testen der richtigen Speicherplatzallokation in einem
neuen System oder durch die Zusicherung, dass genug
Speicherplatz auf Dateisystemen für Audio-Logs oder
@@ -4683,10 +4682,10 @@ vfs.zfs.vdev.cache.size="5M"
gegen die Reservierung gezählt. Beispielsweise, wenn
ein Schnappschuss von
storage/home/bob angelegt wird,
- muss genug Plattenplatz ausserhalb der Menge an
+ muss genug Plattenplatz außerhalb der Menge an
refreservation vorhanden sein, damit
die Operation erfolgreich durchgeführt wird. Kinder des
- Hauptdatasets werden nicht in die Menge an
+ Hauptdatasets werden nicht in die Menge an
refreservation gezählt und dringen
auf diese Weise auch nicht in den gesetzten Speicher
ein.
@@ -4736,7 +4735,7 @@ vfs.zfs.vdev.cache.size="5M"
Der Pool kann immer noch verwendet werden, doch wenn
noch weitere Geräte ausfallen, kann der Pool nicht
wiederhergestellt werden. Die fehlenden Geräte
- anzuschliessen oder die defekten Platten zu ersetzen
+ anzuschließen oder die defekten Platten zu ersetzen
wird den Pool wieder in den Zustand
Online versetzen,
nachdem die angeschlossenen oder neuen Geräte den