È ansible sviluppare partizioni in RAID1

Sto pensando di build un NAS per la famiglia. Sarà un semplice file, printingnte, rsync e bit-torrent server che esegue FreeNAS . Il server avrà due drive SATA da 3,5 ", ho intenzione di rispecchiarli utilizzando software RAID1.

Ho due domande:

  1. Quale file system devo utilizzare, l'UFS predefinito o ZFS? Per quanto ho capito da vari post sul blog, ZFS è molto memory e CPU affamata, functionrà con VIA C7? Mi piace l'idea di istantanee ZFS, ma posso vivere senza di loro se è troppo esigente.

  2. Attualmente ho due drive: 640GB e 1TB. Se li uso in RAID-1, la dimensione totale dell'arrays sarà la dimensione minima dei due dischi, ossia 640 GB. Ora va bene, ma cosa succederà se entro un anno ho un nuovo disco da 1,5 TB? L'arrays RAID dovrebbe ribuild quando sostituisco l'unità più piccola con quella nuova, ma sarà ansible crescere da 640 GB al nuovo minimo – 1 TB senza perdere i dati?

Grazie e dispiace se sto chiedendo domande banali, sono un ragazzo di software.

UPDATE: per rispondere alla seconda domanda, questo post sul blog spiega come sviluppare una partizione RAID1 dopo aver sostituito una delle unità.

  • LVM mirroring VS RAID1
  • Zpool disco failure - Dove sono?
  • Come annullare un RAID 1 di mdadm senza perdere i dati
  • Posso eseguire l'avvio da un software RAID5 con linux?
  • lento software raid
  • È ansible chiedere a ReFS di utilizzare hardware RAID6 per i calcoli di parità?
  • L'installazione di Ubuntu non riesce a rilevare i dischi rigidi
  • Aggiornamento delle unità arrays RAID 5 in un DELL 2950 con il controller Perc 6i
  • 2 Solutions collect form web for “È ansible sviluppare partizioni in RAID1”

    ZFS, ma è limitata dalla scelta hardware ( stabilità ZFS ), poiché le C7 sono 32bit (gli stati wikipedia utilizzano il set di istruzioni x86). ZFS potrebbe non essere la soluzione che cerchi. Se decidi altrimenti (ti protegge dalla corruzione dei dati e dai dischi danneggiati) ci sono alcuni progetti utili circa

    L'arrays RAID dovrebbe ribuild quando sostituisco l'unità più piccola con quella nuova, ma sarà ansible crescere da 640 GB al nuovo minimo – 1 TB senza perdere i dati?

    Non dovrebbe essere un problema (non ho mai usato FreeNAS), con controller RAID hardware ho fatto questo più volte:

    1. backup tutti i tuoi dati 🙂
    2. rimuovere il disco più piccolo dall'arrays
    3. inserire il nuovo disco
    4. ribuild l'arrays dall'uso del disco originale come primario

    In alternativa, se vuoi ridimensionare dynamicmente l'arrays e la ridondanza enorme, otteni un Drobo (i templates più recenti sono notevolmente migliori) – non puoi tuttavia eseguire questo come un semplice server. Quindi, potresti eseguire un SheevaPlug ultra basso potenza come server ( economico come chip ) e colbind il Drobo in esso. Questa è la mia soluzione ultra scalabile a bassa potenza consigliata (limitata solo dalla capacità massima di HDD corrente).

    A partire dalla versione 2.6.11 del kernel di Linux è ansible creare parti esterne ridimensionabili ext3. Recentemente ho fatto molto questa domanda su un server CentOS 5.4, che aveva un raid1 usando un drive da 300 GB e 500 GB. Volevo aggiornare lo specchio così ho comprato un drive da 1TB che stava per sostituire l'unità da 300GB.

    Innanzitutto è come ho originariamente creato il raid1 con i drive 300 + 500GB

    Di solito uso fdisk per creare una singola partizione su un'unità, contrassegnando il tipo di partizione come fd (linux RAID). Avanti, uso mdadm per creare un arrays software raid1.

    mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/hda1 /dev/hdb1 

    Poi posi un gruppo LVM (ho chiamato lvm-raid) in cima all'arrays raid1.

     vgcreate -s 8M lvm-raid /dev/md0 

    Determinare quante estensioni fisiche il gruppo di volumi ha a disposizione. È ansible utilizzare il command vgdisplay lvm-raid e cercare la linea "Total PE". Nel mio esempio è stato 59617. Con questa informazione posso ora creare un volume logico all'interno del gruppo di volume lvm-raid.

     lvcreate -l 59617 lvm-raid -n lvm0 

    Infine ho messo la partizione ext3 sul volume logico.

     mkfs.ext3 /dev/lvm-raid/lvm0 

    Ecco come ho migrato la raid1 all'unità 500GB + 1TB

    Ho aggiunto l'azionamento da 1 TB come un ricambio caldo per il raid1, e l'ho sincronizzato come membro. Una volta che è stata sincronizzata, ho fallito e successivamente ho rimosso l'unità da 300 GB. Questo mi ha permesso di portre la matrix raid1 fino a 500GB, poiché l'unità da 500GB era ora l'elemento di arrays più piccolo. Le mie note intorno a questo passo sono carenti di dettaglio, ma penso di aver fatto quanto segue:

     mdadm --manage --add /dev/md0 /dev/sda1 mdadm --manage /dev/md0 --fail /dev/hda1 ...wait for it to sync... cat /proc/mdstat ...wait for it to sync... cat /proc/mdstat ...sync is done... mdadm /dev/md0 -r /dev/hda1 

    Crescere il raid al massimo. size dei membri residenti di arrays. In questo caso abbiamo un drive da 500GB e 1TB nel raid 1, per cui possiamo aumentare il raid a 500GB.

     mdadm --grow /dev/md0 --size=max 

    Una volta che l'arrays di raid era fino a 500GB, ho eseguito i seguenti comandi per utilizzare lo spazio aggiuntivo disponibile all'interno di LVM e, infine, la condivisione ext3 effettiva.

    Prima ho avuto il volume fisico per fare uso dello spazio aggiuntivo.

     pvresize /dev/md0 

    Poi ho eseguito il command pvdisplay / dev / md0 per determinare quanti "estensioni liberi" erano ora disponibili. Nel mio caso era 23845. Così ho eseguito questo command per assorbirli nel volume logico.

     lvextend -l +23845 /dev/lvm-raid/lvm0 

    Infine ho eseguito il command resize2fs per aggiungere lo spazio extra nella condivisione ext3.

     resize2fs /dev/lvm-raid/lvm0 

    Ecco cosa sembra resize2fs quando è in esecuzione:

     resize2fs 1.39 (29-May-2006) Filesystem at /dev/lvm-raid/lvm0 is mounted on /export/raid1; on-line resizing required Performing an on-line resize of /dev/lvm-raid/lvm0 to 122095616 (4k) blocks. The filesystem on /dev/lvm-raid/lvm0 is now 122095616 blocks long. 

    E quando è tutto finito, df ora mostra questo:

     Filesystem Size Used Avail Use% Mounted on /dev/mapper/lvm--raid-lvm0 459G 256G 180G 59% /export/raid1 
    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.