Come si esegue il backup di un server di archiviazione?

Sto cercando di implementare un server di storage molto grande da utilizzare come NAS live per diversi altri server (tutti basati su Linux).

Da molto grande, voglio dire tra lo spazio utile da 4TB a 20TB (anche se è improbabile che veramente lo faremo 20TB).

  • Raccomandazioni per i controller hardware RAID
  • DRBD o simili RAID over net su reti lente / limitate
  • ionice vs Software-RAID
  • Configurazione unità per 5 database di grandi size
  • CentOS 5.5 doesnt boot - possibili controller RAID o dischi duri?
  • C'è qualche interruzione durante l'espansione di un volume su un'impostazione iSCSI utilizzando Synology Hybrid RAID?
  • Il server di archiviazione sarà RAID 10 per la sicurezza dei dati e le performance, ma avremo ancora bisogno di una soluzione di backup, incluso il backup off-site.

    La mia domanda è: come si fa a sostenere quei dati?

    Non è come posso colbind un disco rigido porttile e trasferire i file sopra. Attualmente non disponiamo di altri dispositivi con questo spazio di memorizzazione.

    Devo fare il bilancio per un secondo server di archiviazione off-site o c'è una soluzione migliore?

  • Il dispositivo NAS rivendica l'azionamento in un RAID è degradato ma SMART dice che va bene
  • Scegliere un sistema NAS e le cose da guardare
  • 7 Solutions collect form web for “Come si esegue il backup di un server di archiviazione?”

    Ci sono molti modi di gestire i dati di tale dimensione. Molto dipende dal tuo ambiente e da quanti soldi sei disposto a spendere. In generale ci sono alcuni complessi 'get i dati fuori dal server' strategie:

    • Oltre l'Ethernet Come dice sulla scatola, i dati vengono trasmessi a Some Where Else per la gestione. 20TB richiederà molto tempo per copiare oltre 1GbE, ma può essere fatto. L'hardware può aiutare (come i collegamenti 10GbE, o in alcuni casi l'incollaggio NIC).
    • Sottosistema di archiviazione Se sei in canale di fibra, invialo ad un altro dispositivo sulla networking FC. Se hai SAS, invialo a un dispositivo collegato a SAS. Generalmente più veloce di Ethernet.
    • Invia ad un altro arrays di dischi Invia ad un altro hunk di archiviazione collegato allo stesso server.

    Questa è la vista da 100 km. Una volta iniziato a zoomare le cose diventano molto più frammentate. Come già detto, LTO5 è una tecnologia a nastro specifica progettata per questi tipi di carichi ad alta densità. Un'altra matrix di storage identica è un buon target, soprattutto se si può utilizzare qualcosa come GlusterFS o DRBD per get i dati là. Inoltre, se avete bisogno di una rotazione di backup o solo la capacità di continuare a funzionare nel caso in cui l'arrays non riesca a influenzare ciò che hai messo in atto.

    Una volta che hai stabilito un metodo di visualizzazione di 100Km, entrare nel software sarà il prossimo grande task. I fattori che influenzano questo sono quelli che è ansible installare sul server di archiviazione in primo luogo (se è un NetApp, che è una cosa, un server Linux con un sacco di archiviazione è un'altra cosa interamente, come è un server Windows con un sacco di archiviazione) , quale hardware selezionato (ad esempio, non tutti i pacchetti di backup FOSS gestiscono bene le librerie di nastro) e quale tipo di backup di backup richiede.

    Hai davvero bisogno di capire quale tipo di disaster recovery si desidera. La semplice replica in diretta è più facile, ma non consente di ripristinare solo l'ora dell'ultima settimana. Se la capacità di ripristinare dalla scorsa settimana è importnte per te, allora devi progettare per quella specie. Per legge (negli USA e altrove) alcuni dati devono essere conservati per 7 anni.

    La semplice replica è il più semplice da fare. Questo è ciò che DRBD è progettato per fare. Una volta eseguita la copia iniziale, invia solo le modifiche. I fattori complicanti qui sono la localizzazione della networking, se la seconda matrix non è vicina al DRBD primario potrebbe non essere fattibile. Avnetworking bisogno di un secondo server di archiviazione con alless lo spazio di archiviazione del primo.


    Informazioni sul backup del nastro …

    LTO5 può contenere 1,5 TB di dati senza compressione. L'alimentazione di questi mostri richiede una rapida creazione di reti, ovvero Fibre Channel o 6Gb SAS. Dato che è necessario eseguire il backup di più di 1,5 TB in una puntata, è necessario esaminare gli autolaboratori (ecco un esempio: collegamento , un slot automatico a 24 slot da HP). Con il software che li support, gestiranno i metacaratteri che cambiano per te. Sono grandi. Dovrai ancora tirare i nastri per spedire all'esterno, ma è una vista dannatamente migliore che appendere tutta la notte per caricare i nastri quando il backup richiede.

    Se il nastro vi dà l'' inheritance;, ew ' heebiegeebies, una libreria di nastri virtuali può essere più la tua velocità (come questo da Quantum: link ). Questi fingono di essere librerie a nastro per il software di backup mentre effettivamente memorizzano le cose su disco con robuste (speriamo) tecniche di de-duplicazione. I fancier anche copiano i nastri virtuali a nastri reali per te, se ti piace quella sorta di cose, che può essere molto utile per rotazioni fuori sede.


    Se non si desidera fare inconvenienti anche con i nastri virtuali, ma si desidera ancora eseguire backup diretti su disco, è necessario disporre di un arrays di archiviazione sufficientemente grande da gestire tale 20TB, e comunque molti dati di net-change che si desidera per mantenere una presa di. Diversi pacchetti di backup gestiscono questo diversamente. Alcune tecnologie di de-duplicazione sono veramente belle, altre sono kludges hacky. Personalmente non conosco lo stato dei pacchetti software di backup FOSS in questo settore (ho sentito parlare di Bacula), ma possono essere sufficienti. Molti pacchetti di backup commerciali dispongono di agenti locali installati sui server per essere supportti per aumentare il throughput, che ha molti meriti.

    Jukebox LTO-5? avresti bisogno da qualche parte tra tre e 15 nastri per riprendere quella matrix, che non è un numero enormemente grosso. Il jukebox si prenderà cura di cambiare i nastri per voi, e un buon software di backup (ad es. Bacula) tenera 'traccia di quali file si trovano su quale nastro.

    Si desidera anche considerare il tempo necessario per eseguire il backup di un file system che è grande, in quanto è molto probabile che FS cambierà durante quel periodo. Per get risultati ottimali, un file system che support gli snapshot sarebbe molto utile, in modo da poter eseguire istantaneamente istantanea e eseguire backup completi o incrementali rispetto a questo, invece che contro il file system live.

    Dovresti probabilmente guardare il backup su disco , dal momento che il nastro richiederà molto tempo e, essendo l'accesso sequenziale, i ripristini verranno per sempre.

    Sicuramente approfittare di backup differenziali o incrementali – solo eseguire il backup delle modifiche, a qualsiasi frequenza ha senso per te.

    Probabilmente la soluzione ideale avrebbe un secondo server di size simili in un'altra posizione , where i backup incrementali vengono inviati regolarmente e che potrebbe essere sostituito rapidamente se il server principale è mai morto. Tuttavia un'altra opzione sarebbe quella di utilizzare unità rimovibili in loco, che vengono quindi spostate fuori per l'archiviazione.

    Quando hai a che fare con tanti dati, ha anche senso smettere i backup in piccoli lavori di backup e, se non tutti possono essere supportti each giorno, falsare i backup in modo da impostare A viene eseguito il backup di un giorno e impostare B il prossimo.

    Stai sempre pensando alla procedura di ripristino . Ci siamo stati storditi una volta che abbiamo dovuto ripristinare un file da un lavoro di backup di diversi centinaia di giganti, che ha richiesto un sacco di memory e un sacco di tempo per ribuild l'indice di backup e il ripristino. Alla fine non abbiamo potuto completarlo in un giorno e wherevamo build un server di ripristino dedicato per consentire al nostro server di backup principale di continuare i lavori di notte!

    –added–

    Vogli anche pensare alle tecnologie di deduplicazione , in grado di risparmiare enormi quantità di spazio, senza eseguire il backup di più stesse informazioni per più utenti. Molte soluzioni di backup o file system offrono deduplicazione come parte della loro funzionalità.

    In primo luogo, elencare i rischi che stai proteggendo contro. Alcuni rischi comuni:

    • Disastro: Qualcosa di molto sfortunato accade per tutto il tuo sito.
    • Errori umani (questo è quello che accade _all_the_time_):
      • Qualcuno decide di esercitare la capacità di "hot-swap" del server di archiviazione in modo non previsto dal produttore.
      • Qualcuno esegue un process che corrompe silenziosamente i dati, che viene eseguito in modo affidabile per un paio di mesi prima che si noti il ​​problema.
      • Qualcuno elimina l'importnte rapporto che è dovuto in un'ora e vale migliaia di dollari.

    Quindi valutare il costo delle diverse soluzioni di evitare i rischi, ad esempio:

    • Off-site, backup on-line (mirror remoto): Sicuro da disastri, alcuni (ma non tutti) errori umani (è ancora in linea).
    • Memorizzazione fuori linea (nastri): Sicuro da disastri, difficile da recuperare rapidamente i dati.
    • Backup in linea on-site (mirror): Sicuro da qualche errore umano, qualche errore hardware, vulnerabile al disastro.
    • Backup off-line sul posto (nastri in cambia nastro): Sicuro da molti errori umani, la maggior parte degli errori hardware.

    Quindi valutare le strategie di rotazione (quanto indietro vuoi essere in grado di recuperare, quanti dati si possono permettere di perdere).

    Quindi scegli quello che vale la pena.

    Ho un cliente con due sisthemes simili a 12 TB in due edifici diversi, collegati a 1 GB. Uno è il sistema produttivo; è supportto incrementalmente (con gli snapshot giornalieri) all'altro con la grande utility di rdiff-backup . il backup di rdiff deve essere disponibile nel repository di distribuzione standard.

    Off-site, backup in linea (mirror remoto)

    utilizzare rsync anche se ssh (solo modifiche) – il primo backup deve essere fatto localmente, ma dopo che il backup sarà una brezza a seconda delle modifiche

    se è necessario mantenere le versioni con modifiche – backup rdiff

    http://www.nongnu.org/rdiff-backup/

    Il file system btrfs in Linux sembra promettente, ma ancora in forte sviluppo

    Date un'occhiata al tuo "contenuto" effettivo e quanto spesso cambia prima di pianificare la tua strategia. Molte volte le persone scettono gli stessi dati a nastro a settimana per più motivi.

    Le tecnologie di deduplicazione di alcuni produttori possono consentire a snapshot di risparmiare i singoli ripristini di file, ma sarà sempre necessario offsite per la protezione.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.