Errore di avvio mdadm, inizio incrementale di raid arrays Ubuntu SErver 14.04

costruisco un piccolo server con Ubuntu 14.04 per Samba, ho un drive SSD (l'installazione ubuntu è su di esso) e 2 dischi 3TB SATA, il disco sata viene combinato in un Raid 1 con mdadm.

Ora a volte (non sempre, penso che sia forse legato ad un arresto sporco) il sistema si blocca al process di avvio:

  • È sicuro arrestare una macchina durante la ricostruzione / recupero / crescita di un arrays RAID5 che è stato costruito con mdadm
  • Software RAID5 su SSD. Uno SSD 40% più consumato rispetto agli altri
  • Evento DegradedArray su / dev / md1
  • RAID Mirror con differenti tipi di HD
  • Come redirect l'output della console del kernel su Ubuntu 10.04
  • Linux Software RAID1: Come avviare dopo (fisicamente) la rimozione di / dev / sda? (LVM, mdadm, Grub2)
  • incrementally starting raid arrayss mdadm: Create user root not found mdadm: create group disk not found incrementally started raid arrayss 

    queste 4 righe continuano a ripetere. È davvero strano che il volume di avvio (lo ssd) non sia configurato come raid e questo non dovrebbe influenzarlo?

    Nota importnte: se ho premuto ctrl + alt + del, il server riavvia e si avvia normalmente, se guardo il raid dev mdadm --detail /dev/md0 dopo l'avvio, tutto sembra buono.

    Io non sono un professionista di linux e non ho trovato niente su internet correlati a questi errori, quindi adesso sono un block, forse qualcuno ha un indizio su quale problema potrebbe essere o alcuni consigli avanzati di risoluzione dei problemi (file di log, ecc) ?

    grazie per la lettura di Stefan

  • Errore ESXi 5 Hypervisor boot boot
  • Errore di caricamento Grub 21
  • Perché la mia macchina non visualizza nulla durante l'avvio?
  • Quanti dati Linux legge sul boot medio?
  • Spostamento di una Linux esistente in un LVM
  • Ottenere i client NFS per tentare di eseguire il ripristino se il server NFS si distriggers quando il client viene avviato
  • 5 Solutions collect form web for “Errore di avvio mdadm, inizio incrementale di raid arrays Ubuntu SErver 14.04”

    Aveva anche questo. Nel mio ambiente: 2x SAS HDD configurati come raid10.

    Il problema era che mpt2sas.ko non era caricato, e quindi mdadm non poteva vedere alcun disco. Questo a sua volta è stato causato da un errore di confezione: quando l'apt stava rimuovendo pacchetti wlan non necessari come crda, ha anche eliminato automaticamente il pacchetto linux-image-extra-$VERSION , che effettivamente possiede mpt2sas.ko .

    Per assicurare che il module venga caricato prima dei moduli raid, ho anche fatto un

     echo mpt2sas >>/etc/initramfs-tools/modules 

    finalmente "fissato" l'errore. Versione abbreviata: Il Transcend SSD (TS128GSSD25S-M) in combinazione con la scheda madre ASRock B85M Pro4 ha causato l'errore. Dopo aver clonato il sistema con clonezilla ad un Samsung 840 Evo ho avviato ora 30 volte senza problemi.

    nella relazione del problema profondo: ma perché il mdadm si presenta con problemi totalmente non correlati di raid? : Beh durante la creazione del Raid Array (o forse per impostazione predefinita? Non so esattamente) mdadm mettere uno script di initialization raid nei initramfs. Questo controllo della cartella se il rootfs è montato, se il rootfs (sul mio SSD) non è montato, salta in function mountroot_fail

     message "Incrementally starting RAID arrayss..." if mdadm --incremental --run --scan; then message "Incrementally started RAID arrayss." return 0 

    Ciò port all'output confusa. Dopo aver rimosso quegli script da initramfs mi sono imbattuto nel vero problema:

    Ha dato wiating per il dispositivo di radice. Problemi comuni:

    • Argomenti di avvio (cat / proc / cmdline)
      • controllare rootdelay = (il sistema ha aspettato abbastanza a lungo?)
      • check root = (il sistema ha aspettato il dispositivo giusto?)
    • moduli mancanti (cat / proc / modules; ls / dev)

       ALERT! /dev/disk/by-uuid/01234567-89ab-cdef-0123-456789abcdef does not exist. Dropping to a shell! BusyBox v1.13.3 (Ubuntu 1:1.13.3-1ubuntu11) built-in shell (ash) Enter 'help' for a list of built-in commands. (initramfs) 

    Poiché l'errore non è persistente ho pensato di dare un SSD diverso a provare, e BAM che funziona.

    Per me la soluzione mancava le voci "dm-mod", "dm-snapshot" e "dm-mirror" in / etc / initramfs-tools / modules. Mi sono portto molto tempo per combattere questo problema in quanto i messaggi di errore stavano parlando di "mdadm" e raid – quindi come si dovrebbe immaginare che lvm sia la questione.

    La mia configuration: sda -> sda1 (0xfd linux raid autodetect, 500MB), sda2 (0xfd linux raid autodetect, 250G) stesso per sdb

    • sda1 + sdb1 --> /dev/md0 (mdadm) "/boot"
    • sda2 + sdb2 --> /dev/md1 (mdadm) --> lvm volume for "swap" and "/"

    Non ho messo "/ boot" nel LVM per evitare di hazzle con grub / lvm in primo luogo. Ma sembra che sono appena caduto in un'altra tarpit di grub / lvm / raid 🙁

    Suppongo che il problema era che grub montò correttamente i initramfs e quindi non poteva montare (a causa dei moduli lvm mancanti) ha provato a inizializzare alcuni dispositivi di raid.

    Gli incrementally starting raid arrayss sono un po 'ingannevoli in quanto possono essere qualsiasi module mancante che inibisce / da get montato. Vedi anche sopra il module mancante del module mpt2sas .

    Inoltre ho pensato che i moduli dm_ non erano necessari perché sono per dmraid – che è sbagliato: sono anche necessari per LVM. Nella mia situazione ho fatto un passaggio da dmraid torna al good ol 'mdadm perché dmraid (fakeraid) ha causato problemi (una directory appena scomparsa).

    E, ultimo ma non less importnte, mi sono chiesto di poter aggiungere moduli dm-mod , dm-snapshot and dm-mirror to / etc / modules and / etc / initramfs-tools / modules anche altough there are not really and esistono file altough there are not really and .ko` da quel nome. Deve essere un qualche tipo di alias del module.

    Sulla mia macchina (Ubuntu trusty) questo è stato causato dall'avvio di un nuovo kernel (xenial 4.4.0 -series) installato in / boot e utilizzato per impostazione predefinita.

    Ho risolto questo problema avvia una vecchia versione del kernel e ho eseguito:

     update-initramfs -u update-grub 

    Il caso per me è stato che stavo utilizzando un kernel 3.x e aggiornato a 4.4.x. Avviare il kernel 3.x lo ha risolto e da allora ho rimosso il 4.4, c'è sicuramente qualcosa di incompatibile o un problema con gli initramf che viene con esso.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.