Ribuild i raid-arrayss

Come posso ribuild i raid arrays? Sto utilizzando Raid 1. Il mio datacentar dice che deve essere fisso, prima ho pensato che i hard disk sono difettosi a causa di smartmoontools scansione risultato ma non lo è.

command:

cat / proc / mdstat

produzione:

Personalities : [raid1] [raid0] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sdb1[1] sda1[0] 2096064 blocks [2/2] [UU] md1 : active raid1 sda2[0] 524224 blocks [2/1] [U_] md2 : active raid1 sda3[0] 729952192 blocks [2/1] [U_] unused devices: <none> 

Devo:

 # mdadm /dev/md1 -r /dev/sdb2 # mdadm /dev/md2 -r /dev/sdb3 # mdadm /dev/md3 -r /dev/sdb4 

e poi

 # mdadm /dev/md1 -a /dev/sdb2 # mdadm /dev/md2 -a /dev/sdb3 # mdadm /dev/md3 -a /dev/sdb4 

Perderò i dati o il mio server non sarà in linea?

Ecco l'output per fdisk -l

 Disk /dev/sda: 750.1 GB, 750156374016 bytes 64 heads, 32 sectors/track, 715404 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sda1 2 2048 2096128 fd Linux raid autodetect /dev/sda2 2049 2560 524288 fd Linux raid autodetect /dev/sda3 2561 715404 729952256 fd Linux raid autodetect Disk /dev/sdb: 750.1 GB, 750156374016 bytes 64 heads, 32 sectors/track, 715404 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sdb1 2 2048 2096128 fd Linux raid autodetect /dev/sdb2 2049 2560 524288 fd Linux raid autodetect /dev/sdb3 2561 715404 729952256 fd Linux raid autodetect Disk /dev/md2: 747.4 GB, 747471044608 bytes 2 heads, 4 sectors/track, 182488048 cylinders Units = cylinders of 8 * 512 = 4096 bytes Disk /dev/md2 doesn't contain a valid partition table Disk /dev/md1: 536 MB, 536805376 bytes 2 heads, 4 sectors/track, 131056 cylinders Units = cylinders of 8 * 512 = 4096 bytes Disk /dev/md1 doesn't contain a valid partition table Disk /dev/md0: 2146 MB, 2146369536 bytes 2 heads, 4 sectors/track, 524016 cylinders Units = cylinders of 8 * 512 = 4096 bytes Disk /dev/md0 doesn't contain a valid partition table 

Ecco l'output per smartctl -A / dev / sdb

 === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 10 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000f 111 100 006 Pre-fail Always - 38042073 3 Spin_Up_Time 0x0003 100 100 000 Pre-fail Always - 0 4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 7 5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 0 7 Seek_Error_Rate 0x000f 073 060 030 Pre-fail Always - 24494887 9 Power_On_Hours 0x0032 091 091 000 Old_age Always - 7935 10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 7 183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0 184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0 187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0 188 Command_Timeout 0x0032 100 099 000 Old_age Always - 4 189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0 190 Airflow_Temperature_Cel 0x0022 062 052 045 Old_age Always - 38 (Min/Max 34/41) 194 Temperature_Celsius 0x0022 038 048 000 Old_age Always - 38 (0 26 0 0 0) 195 Hardware_ECC_Recovered 0x001a 032 026 000 Old_age Always - 38042073 197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0 240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 101494372179726 241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 3317006641 242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 2924590852 

  • Linux Software RAID1 Rebuild Completa, ma dopo il riavvio, è degradato di nuovo
  • RAID1: Come faccio a "Fail" un'unità contrassegnata come "rimosso"?
  • Recupero dati da RAID 1: Array non riuscito
  • L'unità di ricambio raid1 è un block più piccolo. Cosa fare?
  • RAID 10 o RAID 1 x 2 per Hyper-V con AD, EXCHANGE su Windows 2008 R2
  • Il dispositivo NAS rivendica l'azionamento in un RAID è degradato ma SMART dice che va bene
  • Come avviare automaticamente RAID1 software degradato sotto Debian 8.0.0 all'avvio?
  • Hot swap ha guastato l'unità RAID del software con Windows Server 2008
  • 3 Solutions collect form web for “Ribuild i raid-arrayss”

    Quella unità sdb sembra che non sia lontana dal fallimento. Anche se non è ancora ufficialmente fallito, non ha molto vita in esso.

     195 Hardware_ECC_Recovered 0x001a 032 026 000 Old_age Always - 38042073 

    Questa unità ha avuto un gran numero di errori di lettura recuperabili . Ciò significa che ha ricostruito con successo i dati utilizzando la correzione degli errori. Tuttavia, sta arrivando al punto in cui è probabile che presto avrà un errore di lettura irrecuperabile , where non riesce a ribuild correttamente i dati su una sezione danneggiata o insufficiente del disco. A quel punto non c'è niente che puoi fare e dovrai sostituire l'unità.

    Se la tua ricostruzione continua a fermarsi, allo stesso luogo, è completamente ansible che l'unità sia già venuta less a quel punto sui piatti e non lo segnalava. Gli azionamenti di class Desktop si fermeranno e provano per minuti o addirittura ore per leggere un settore particolare se falliscono la prima volta, cosa che port a questo tipo di cose. E probabilmente avete un disco in questo "server" …

    A questo punto dovresti avere l'azionamento protriggersmente sostituito, poiché non riesce presto, se non già.

    Sembra che manca solo una metà dello specchio. Quindi non dovrebbe esserci alcun problema. Ma la domanda è perché i sumbirrors (sdbX) mancano? Forse sarebbe una buona idea controllarli prima della riconciliazione agli specchi.

     mdadm --manage /dev/md1 --add /dev/sdb2 mdadm --manage /dev/md2 --add /dev/sdb3 mdadm --manage /dev/md3 --add /dev/sdb4 

    Quando si dispongono di due volumi di mirroring utilizzando RAID1, each copia ha un "contatore di attività" che viene aggiornato quando qualcosa viene modificato all'interno della copia: in questo modo il sistema è in grado di capire quale è il più aggiornato in caso di crash o altre cose che togliono uno dei due.

    Il risinamento significa che il più corrente viene copiato su quello più vecchio, che "ha perso la sincronizzazione". Quindi un disco rigido non in linea o uno difettoso impongono la matrix nella "modalità degradata" (solo una copia in linea, non ridondanza).

    Da una modalità degradata è ansible recuperare o forzare una risincronizzazione in modo che l'unica partizione triggers viene clonata a quella che hai ripreso a funzionare o sostituendo il disco difettoso e fornendo il nuovo spazio all'arrays, che verrà clonato nello stesso modo descritto precedentemente.

    Entrambi i methods conserveranno i tuoi dati intatti, a less che non fate qualcosa di improprio alle configurazioni o alle partizioni "buone" che sono ancora vive =)

    Suppongo che sia una buona idea per eseguire il backup delle configurazioni di raid prima di pensare a giocare con loro =)

    Per quanto riguarda i valori SMART, mi sembrano piuttosto ok, oltre al Hardware_ECC_Recovered che viene anche discusso su altre risposte.

    Comunque evitate di considerare il valore singolo che vedete lì, controllate anche il passo che sta cambiando. Una volta avevo valori strani su un disco, ma non avevano peggio, erano stabili. D'altro canto, i buoni valori SMART non sono la prova di un disco perfetto: a mio parere possono essere utili a controllare l'utilizzo del disco a causa dell'utilizzo / invecchiamento, ma possono fare molto per evitare guasti improvvisi (ad esempio quelli causati da stress meccanico, surriscaldamento, ecc. – pensare a un refrigerante fallito nella sala server ..)

    In bocca al lupo! =)

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.