Un semplice strumento di replica del volume per un grande set di dati?

Sto cercando una soluzione al seguente:

Server A (sito A) – Win 2008 R2 – circa 10 TB (max 15 TB) di dati – ben oltre 8 milioni di file

  • ID evento 10009 DCOM
  • Il command "Net Send" nel server Microsoft 2008 r2
  • Montare uno spazio dei nomi DFS in Linux in Linux
  • Al posto del downgrade di Windows Server 2008 R2 da Standard a Web
  • Windows 2008 R2 DHCP - client rinnovo troppo spesso
  • Qualcuno ha mai utilizzato i collegamenti del sito SMTP?
  • Server B (sito B) – Win 2008 R2

    Voglio replicare in modo assoluto il volume del server A in un volume sul server B per la ridondanza dei dati. Qualcosa che posso dire ai miei utenti, "vai qui per i dati" quando / se il server A va in pancia a causa di problemi di macchina, disastri ecc.

    Windows 2008 R2 dispone di DFS, ma Microsoft non support apparentemente questo grande set di dati (o più accuratamente, più di 8 milioni di file – secondo i documenti che potrei trovare).

    Ho anche guardato Veritas Volume Replication, ma questo sembra quasi troppo come mi piacerebbe anche Veritas Volume Manager.

    Ci sono numerosi software "back-up" che rendono un backup di 1-1, che sarebbe ok, ma dato che verrà trasferito su Internet, vorrei qualcosa che ha la compressione durante il trasferimento come DFS ha.

    Qualcuno ha suggerimenti in merito?

  • Windows Server - "Errore disponibile per l'archiviazione insufficiente"
  • Come posso trovare i miei server di spazio dei nomi DFS?
  • Windows Server: Replicare le cartelle senza DFS?
  • Errore 0x8007003B che copia i file di grandi size nella condivisione DFS
  • Come mantenere un file su molti server di produzione (Windows e Linux)
  • Posso rimuovere e ri-aggiungere una cartella replicata (DFS) senza che replica tutti i file?
  • 5 Solutions collect form web for “Un semplice strumento di replica del volume per un grande set di dati?”

    Ho usato Doubletake Move per spostare i set di dati di grandi size su Internet. Esse utilizzano la replica del livello di byte e tengono traccia delle modifiche ai file. C'è anche un bel programmatore di limitazione della width di banda per utilizzare less durante il giorno e metterla in function durante la notte e il fine settimana. Si riprende anche bene in caso di interruzione di connessione di qualche tipo.

    Ora, suppongo che questa sia una sorta di MSA collegata a una macchina fisica, ma nel caso in cui utilizzi una SAN, controlla con il tuo fornitore SAN per le opzioni di replica asynchronous.

    Qualunque replica utilizzi, ci sono alcune cose che si desidera pensare:

    1. Larghezza di banda in corrispondenza della fonte e del bersaglio
    2. Tasso di cambiamento di file

    Se il tasso di modifica è troppo alto sul lato sorgente e non hai abbastanza width di banda per superarlo, non avrai mai una buona replica.

    Reindicizzando i database, le deframazioni e le operazioni di spostamento / aggiunta / cancellazione di file di massa hanno causato tutti mal di testa in passato.

    Spero che il mio dolore passato aiuterà qualcuno che legge questo! : D

    DFSR nel 2003 R2 (2008 e 2008 R2 sono probabilmente molto più scalabili, esplicitati dall'essere x64) hanno funzionato così meravigliosamente per noi con 75 server con tutti su diversi link WAN (1-10MB) che sincronizzano i file di alless 500GB (per server tempi 75 ) sui collegamenti WAN cattivi, lenti o saturi che consiglierei di fare quello che è ansible per far funzionare il DFSR. Abbiamo trovato più facile gestire l'org broad poi Veritas, ma questo è stato 2006-7 dopo il 2003 R2 è uscito. La width di banda di BITS che controlla GPO è il tuo amico.

    Una delle cose con DFSR è che mantiene una cartella con copie di tutti i blocchi che sono stati modificati che devono essere inviati, quindi lo storage è qualcosa che vuoi essere liberale con. Sono curioso dei limiti citati, come penso che i file 8M sarebbero benissimo in un context di molta risorse (RAM, CPU, disco). Non conosco il nostro count dei file.

    Inoltre, in passato DFSR è stato incompatibile con backup, A / V e altri software. Nel 2008-2009 abbiamo scoperto che Netbackup non amava il DFSR e stava segnalando successo con i nostri backup dei file server, ma in realtà era il backup di NESSUNO. Solo nei test di ripristino abbiamo scoperto questo orribile errore orribile in Netbackup. Se c'è una cosa che non si desidera che i sisthemes di backup fanno, è un backup di successo, ma è veramente un nastro vuoto.

    Comunque, dando un voto di fiducia a DFSR, specialmente nella sua terza versione con 2008 R2 come qualcosa che devi dare un colpo se non riesci a trovare un prodotto del fornitore che dice in particolare che hanno testato il tuo scenario. Spesso ciò che Microsoft support ufficialmente è molto più conservatore di quello che sanno functionrà. Ovviamente il tuo chilometraggio può variare, e devi determinare il tuo livello di rischio che sei disposto a prendere.

    La chiave per guardare la replica è quella di cercare un "insieme coerente" di dati che vengono replicati. Ad esempio: i file di log Db e corrispondenti devono essere replicati in modo "coerente" in modo tale che i dati siano utilizzabili sull'altro sito replicato.

    La seconda caratteristica importnte da considerare è – il tempo richiesto per il recupero nel caso in cui vi sia un calo di connessione. La replica comincia da where è andata via? Riavvia la replica?

    Il terzo – quanto bene (o peggio) si esegue su condizioni di networking diverse e qual è l'utilizzo della width di banda.

    Le altre cose importnti da guardare sono: sono le autorizzazioni di file mantenute? Gli altri attributi di file sono mantenuti ad esempio. cosa succede alle cartelle compresse? Cosa succede ai file crittografati? I file aperti sono replicati? ecc ecc.

    Dare tutte le soluzioni di replica basate su blocchi precedenti sono molto meglio della replica basata su file. La replica basata su blocchi di host sarebbe più conveniente della replica basata su blocchi "off-host".

    Ho un cliente che utilizza il prodotto SureSync per replicare i dati in un file server "hot standby". Riproducono poco less di 2TB e funzionano molto bene. Utilizza il journal change change NTFS per monitorare gli aggiornamenti dei file e eseguire la replica delta.

    Non trovo i limiti dei prodotti pubblicati, quindi probabilmente verrai meglio a controllare con il "produttore" per vedere.

    Mentre Veritas Volume Manager con l'opzione Veritas Volume Replicator non è a buon mercato, può offrire alcuni vantaggi, come ad esempio:

    • Funziona a livello di block, quindi non è necessario replicare file interi o attendere che i file siano chiusi prima che le salvataggi possano essere replicate.
    • La fedeltà di ordine di scrittura viene mantenuta, quindi l'ordine che i dati vengono modificati sul primario è che i dati dell'ordine vengono modificati sul bene secondario per i database e simili.
    • Se devi fallire oltre al secondario, le modifiche al secondo vengono facilmente sincronizzate al primario.
    • Compressione e strozzamento del trasferimento.

    È disponibile uno strumento (VRAdvisor) che è ansible utilizzare per monitorare il tasso di cambio dei dati, che quindi ti indicherà quanto width di banda è necessario mantenere il secondo entro una determinata quantità di cambi di dati del primario.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.