Controllo di aggiornamento forza su zfs?

Recentemente ho cambiato la properties; checksum su uno dei miei filesystem non duplicati zfs a sha256 da on (fletcher4) per supportre meglio l'invio di zfs send -DR -I _starting-snaphot_ _ending-snapshot_ duplicati di replica, come in questo command zfs send -DR -I _starting-snaphot_ _ending-snapshot_ .

Tuttavia, la manpage di zfs ha questo da dire su send -D :

  • Espandere ZFS su MDRaid?
  • Ottenere ZFS per statistiche statistiche IO (o statistiche NFS per esportzione IO)
  • Le migliori scelte del filesystem per NFS che memorizzano le immagini del disco VMware
  • Replica ZFS tra 2 file system ZFS
  • Pareri di configuration ZFS
  • Quanto è grande il mio tavolo di deduplicazione ZFS al momento?
  • Questa bandiera può essere utilizzata indipendentemente dalla properties; dedup del set di dati, ma le performance saranno molto meglio se il filesystem utilizza un checksum capace di dedup (ad esempio, sha256).

    La manpage di zfs afferma anche questa relativa properties; della checksum :

    La modifica di questa properties; influenza solo i dati appena scritti.

    Non ho alcun desiderio di fiducia di fletcher4. Il compromesso è che, a differenza di SHA256, fletcher4 non è una function hash pseudo-random e quindi non può essere affidata a non collidere. È pertanto adatto solo per dedup se combinato con l'opzione di verifica che rileva e risolve i collisioni di hash.

    Come posso aggiornare i checksum dei file system, preferibilmente senza distriggersre il sistema?

  • ZFS nfsshare per esportre l'host RW e RO?
  • C'è un modo per limitare l'utilizzo della width di banda di networking / file system per utente su NFS su un file server Solaris 10?
  • ZFS: la carenza di RAM causerà problemi?
  • Dimensione del file con compressione zfs
  • Backup di un database MySQL tramite istantanee ZFS
  • ZFS in cima a Hardware Mirroring, o semplicemente in mirroring in ZFS?
  • One Solution collect form web for “Controllo di aggiornamento forza su zfs?”

    Per modificare le properties; (ad esempio compresso, deduplicazione o checksumming) di dati già scritti, l'approccio zfs è quello di eseguire i dati tramite un zfs send | zfs receive zfs send | zfs receive sequenza. Ovviamente, non è necessario distriggersre il sistema per questo, ma avnetworking bisogno

    1. risorse sufficienti nel tuo pool / sul sistema per tenere due copie dedupate del set di dati in questione
    2. i tempi di inattività per il set di dati come dovresti distruggerlo o rinominarlo nella procedura
    3. abbastanza tempo e pazienza per completare l'operazione

    Poichè stai usando deduplicazione per il pool, eseguendo un command zfs send | zfs receive zfs send | zfs receive con la destinazione sulla stessa piscina poiché l'origine utilizzerebbe solo lo spazio necessario per i blocchi di metadati appena scritti. Ma preparatevi a prendere un po 'la copia – il dedup può essere terribilmente lento, soprattutto se non hai abbastanza RAM per tenere l'intera tabella dedup in RAM.

    Avresti dovuto cessare tutte le operazioni di scrittura per creare la copia finale, autorevole del set di dati, ma potrebbe ridurre al minimo i tempi di inattività copiando prima un'istantanea, interrompendo tutte le scritture e facendo incrementali zfs send -i | zfs receive zfs send -i | zfs receive come ultimo passo.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.