Errore di avvio mdadm, inizio incrementale di raid arrays Ubuntu SErver 14.04

costruisco un piccolo server con Ubuntu 14.04 per Samba, ho un drive SSD (l'installazione ubuntu è su di esso) e 2 dischi 3TB SATA, il disco sata viene combinato in un Raid 1 con mdadm.

Ora a volte (non sempre, penso che sia forse legato ad un arresto sporco) il sistema si blocca al process di avvio:

  • Il sistema blocca occasionalmente il process di avvio con SLES 11
  • Cosa significa il tw_cli di 3Ware da un disco "DEGRADED" contro "ECC-ERROR"?
  • determinare in modo affidabile e automatico il path di connessione della posizione fisica dell'HDD dal file dispositivo / dev / sdX
  • Aggiornamento delle unità arrays RAID 5 in un DELL 2950 con il controller Perc 6i
  • Aggiornamento del controller RAID a 4kn - devo reinizializzare l'arrays per utilizzare 4kn?
  • come pianificare RAID per ESX
  • incrementally starting raid arrayss mdadm: Create user root not found mdadm: create group disk not found incrementally started raid arrayss 

    queste 4 righe continuano a ripetere. È davvero strano che il volume di avvio (lo ssd) non sia configurato come raid e questo non dovrebbe influenzarlo?

    Nota importnte: se ho premuto ctrl + alt + del, il server riavvia e si avvia normalmente, se guardo il raid dev mdadm --detail /dev/md0 dopo l'avvio, tutto sembra buono.

    Io non sono un professionista di linux e non ho trovato niente su internet correlati a questi errori, quindi adesso sono un block, forse qualcuno ha un indizio su quale problema potrebbe essere o alcuni consigli avanzati di risoluzione dei problemi (file di log, ecc) ?

    grazie per la lettura di Stefan

  • l'avvio di un sistema con dispositivi non riusciti in un arrays RAID1
  • Come avviare Linux da un'unità flash USB da 16 GB
  • Come caricare le variables di ambiente all'avvio prima di X11 su Ubuntu Precise?
  • Debian - Arresto MySQL dall'avvio all'avvio
  • Come faccio a eseguire manualmente un init.d di Debian, non all'avvio?
  • È sicuro avviare un server Linux da un'unità USB?
  • 5 Solutions collect form web for “Errore di avvio mdadm, inizio incrementale di raid arrays Ubuntu SErver 14.04”

    Aveva anche questo. Nel mio ambiente: 2x SAS HDD configurati come raid10.

    Il problema era che mpt2sas.ko non era caricato, e quindi mdadm non poteva vedere alcun disco. Questo a sua volta è stato causato da un errore di confezione: quando l'apt stava rimuovendo pacchetti wlan non necessari come crda, ha anche eliminato automaticamente il pacchetto linux-image-extra-$VERSION , che effettivamente possiede mpt2sas.ko .

    Per assicurare che il module venga caricato prima dei moduli raid, ho anche fatto un

     echo mpt2sas >>/etc/initramfs-tools/modules 

    finalmente "fissato" l'errore. Versione abbreviata: Il Transcend SSD (TS128GSSD25S-M) in combinazione con la scheda madre ASRock B85M Pro4 ha causato l'errore. Dopo aver clonato il sistema con clonezilla ad un Samsung 840 Evo ho avviato ora 30 volte senza problemi.

    nella relazione del problema profondo: ma perché il mdadm si presenta con problemi totalmente non correlati di raid? : Beh durante la creazione del Raid Array (o forse per impostazione predefinita? Non so esattamente) mdadm mettere uno script di initialization raid nei initramfs. Questo controllo della cartella se il rootfs è montato, se il rootfs (sul mio SSD) non è montato, salta in function mountroot_fail

     message "Incrementally starting RAID arrayss..." if mdadm --incremental --run --scan; then message "Incrementally started RAID arrayss." return 0 

    Ciò port all'output confusa. Dopo aver rimosso quegli script da initramfs mi sono imbattuto nel vero problema:

    Ha dato wiating per il dispositivo di radice. Problemi comuni:

    • Argomenti di avvio (cat / proc / cmdline)
      • controllare rootdelay = (il sistema ha aspettato abbastanza a lungo?)
      • check root = (il sistema ha aspettato il dispositivo giusto?)
    • moduli mancanti (cat / proc / modules; ls / dev)

       ALERT! /dev/disk/by-uuid/01234567-89ab-cdef-0123-456789abcdef does not exist. Dropping to a shell! BusyBox v1.13.3 (Ubuntu 1:1.13.3-1ubuntu11) built-in shell (ash) Enter 'help' for a list of built-in commands. (initramfs) 

    Poiché l'errore non è persistente ho pensato di dare un SSD diverso a provare, e BAM che funziona.

    Per me la soluzione mancava le voci "dm-mod", "dm-snapshot" e "dm-mirror" in / etc / initramfs-tools / modules. Mi sono portto molto tempo per combattere questo problema in quanto i messaggi di errore stavano parlando di "mdadm" e raid – quindi come si dovrebbe immaginare che lvm sia la questione.

    La mia configuration: sda -> sda1 (0xfd linux raid autodetect, 500MB), sda2 (0xfd linux raid autodetect, 250G) stesso per sdb

    • sda1 + sdb1 --> /dev/md0 (mdadm) "/boot"
    • sda2 + sdb2 --> /dev/md1 (mdadm) --> lvm volume for "swap" and "/"

    Non ho messo "/ boot" nel LVM per evitare di hazzle con grub / lvm in primo luogo. Ma sembra che sono appena caduto in un'altra tarpit di grub / lvm / raid 🙁

    Suppongo che il problema era che grub montò correttamente i initramfs e quindi non poteva montare (a causa dei moduli lvm mancanti) ha provato a inizializzare alcuni dispositivi di raid.

    Gli incrementally starting raid arrayss sono un po 'ingannevoli in quanto possono essere qualsiasi module mancante che inibisce / da get montato. Vedi anche sopra il module mancante del module mpt2sas .

    Inoltre ho pensato che i moduli dm_ non erano necessari perché sono per dmraid – che è sbagliato: sono anche necessari per LVM. Nella mia situazione ho fatto un passaggio da dmraid torna al good ol 'mdadm perché dmraid (fakeraid) ha causato problemi (una directory appena scomparsa).

    E, ultimo ma non less importnte, mi sono chiesto di poter aggiungere moduli dm-mod , dm-snapshot and dm-mirror to / etc / modules and / etc / initramfs-tools / modules anche altough there are not really and esistono file altough there are not really and .ko` da quel nome. Deve essere un qualche tipo di alias del module.

    Sulla mia macchina (Ubuntu trusty) questo è stato causato dall'avvio di un nuovo kernel (xenial 4.4.0 -series) installato in / boot e utilizzato per impostazione predefinita.

    Ho risolto questo problema avvia una vecchia versione del kernel e ho eseguito:

     update-initramfs -u update-grub 

    Il caso per me è stato che stavo utilizzando un kernel 3.x e aggiornato a 4.4.x. Avviare il kernel 3.x lo ha risolto e da allora ho rimosso il 4.4, c'è sicuramente qualcosa di incompatibile o un problema con gli initramf che viene con esso.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.