Errore di avvio mdadm, inizio incrementale di raid arrays Ubuntu SErver 14.04

costruisco un piccolo server con Ubuntu 14.04 per Samba, ho un drive SSD (l'installazione ubuntu è su di esso) e 2 dischi 3TB SATA, il disco sata viene combinato in un Raid 1 con mdadm.

Ora a volte (non sempre, penso che sia forse legato ad un arresto sporco) il sistema si blocca al process di avvio:

  • Identificare il disco rigido fallito nel RAID
  • scegliendo il livello RAID corretto per il database PostgresQL
  • Crea un raid 6 con 7 unità
  • Come posso forzare il controller RAID Smart Array per re-riconoscere le unità?
  • mdadm - Recupero di un'arrays RAID1 "split"
  • Raid 5 con riserva calda o RAID 10 senza ricambio caldo?
  • incrementally starting raid arrayss mdadm: Create user root not found mdadm: create group disk not found incrementally started raid arrayss 

    queste 4 righe continuano a ripetere. È davvero strano che il volume di avvio (lo ssd) non sia configurato come raid e questo non dovrebbe influenzarlo?

    Nota importnte: se ho premuto ctrl + alt + del, il server riavvia e si avvia normalmente, se guardo il raid dev mdadm --detail /dev/md0 dopo l'avvio, tutto sembra buono.

    Io non sono un professionista di linux e non ho trovato niente su internet correlati a questi errori, quindi adesso sono un block, forse qualcuno ha un indizio su quale problema potrebbe essere o alcuni consigli avanzati di risoluzione dei problemi (file di log, ecc) ?

    grazie per la lettura di Stefan

  • Perché il mio filesystem è montato sola lettura in Linux?
  • Come forzare Debian per avviare il nuovo kernel?
  • Spostamento di una Linux esistente in un LVM
  • Come installare le windows su un server senza unità CD o DVD
  • come installare il sistema remotamente utilizzando Supermicro IPMI?
  • stop Centos 6.3 caricamento 'Utilità di configuration modalità text' al riavvio
  • 5 Solutions collect form web for “Errore di avvio mdadm, inizio incrementale di raid arrays Ubuntu SErver 14.04”

    Aveva anche questo. Nel mio ambiente: 2x SAS HDD configurati come raid10.

    Il problema era che mpt2sas.ko non era caricato, e quindi mdadm non poteva vedere alcun disco. Questo a sua volta è stato causato da un errore di confezione: quando l'apt stava rimuovendo pacchetti wlan non necessari come crda, ha anche eliminato automaticamente il pacchetto linux-image-extra-$VERSION , che effettivamente possiede mpt2sas.ko .

    Per assicurare che il module venga caricato prima dei moduli raid, ho anche fatto un

     echo mpt2sas >>/etc/initramfs-tools/modules 

    finalmente "fissato" l'errore. Versione abbreviata: Il Transcend SSD (TS128GSSD25S-M) in combinazione con la scheda madre ASRock B85M Pro4 ha causato l'errore. Dopo aver clonato il sistema con clonezilla ad un Samsung 840 Evo ho avviato ora 30 volte senza problemi.

    nella relazione del problema profondo: ma perché il mdadm si presenta con problemi totalmente non correlati di raid? : Beh durante la creazione del Raid Array (o forse per impostazione predefinita? Non so esattamente) mdadm mettere uno script di initialization raid nei initramfs. Questo controllo della cartella se il rootfs è montato, se il rootfs (sul mio SSD) non è montato, salta in function mountroot_fail

     message "Incrementally starting RAID arrayss..." if mdadm --incremental --run --scan; then message "Incrementally started RAID arrayss." return 0 

    Ciò port all'output confusa. Dopo aver rimosso quegli script da initramfs mi sono imbattuto nel vero problema:

    Ha dato wiating per il dispositivo di radice. Problemi comuni:

    • Argomenti di avvio (cat / proc / cmdline)
      • controllare rootdelay = (il sistema ha aspettato abbastanza a lungo?)
      • check root = (il sistema ha aspettato il dispositivo giusto?)
    • moduli mancanti (cat / proc / modules; ls / dev)

       ALERT! /dev/disk/by-uuid/01234567-89ab-cdef-0123-456789abcdef does not exist. Dropping to a shell! BusyBox v1.13.3 (Ubuntu 1:1.13.3-1ubuntu11) built-in shell (ash) Enter 'help' for a list of built-in commands. (initramfs) 

    Poiché l'errore non è persistente ho pensato di dare un SSD diverso a provare, e BAM che funziona.

    Per me la soluzione mancava le voci "dm-mod", "dm-snapshot" e "dm-mirror" in / etc / initramfs-tools / modules. Mi sono portto molto tempo per combattere questo problema in quanto i messaggi di errore stavano parlando di "mdadm" e raid – quindi come si dovrebbe immaginare che lvm sia la questione.

    La mia configuration: sda -> sda1 (0xfd linux raid autodetect, 500MB), sda2 (0xfd linux raid autodetect, 250G) stesso per sdb

    • sda1 + sdb1 --> /dev/md0 (mdadm) "/boot"
    • sda2 + sdb2 --> /dev/md1 (mdadm) --> lvm volume for "swap" and "/"

    Non ho messo "/ boot" nel LVM per evitare di hazzle con grub / lvm in primo luogo. Ma sembra che sono appena caduto in un'altra tarpit di grub / lvm / raid 🙁

    Suppongo che il problema era che grub montò correttamente i initramfs e quindi non poteva montare (a causa dei moduli lvm mancanti) ha provato a inizializzare alcuni dispositivi di raid.

    Gli incrementally starting raid arrayss sono un po 'ingannevoli in quanto possono essere qualsiasi module mancante che inibisce / da get montato. Vedi anche sopra il module mancante del module mpt2sas .

    Inoltre ho pensato che i moduli dm_ non erano necessari perché sono per dmraid – che è sbagliato: sono anche necessari per LVM. Nella mia situazione ho fatto un passaggio da dmraid torna al good ol 'mdadm perché dmraid (fakeraid) ha causato problemi (una directory appena scomparsa).

    E, ultimo ma non less importnte, mi sono chiesto di poter aggiungere moduli dm-mod , dm-snapshot and dm-mirror to / etc / modules and / etc / initramfs-tools / modules anche altough there are not really and esistono file altough there are not really and .ko` da quel nome. Deve essere un qualche tipo di alias del module.

    Sulla mia macchina (Ubuntu trusty) questo è stato causato dall'avvio di un nuovo kernel (xenial 4.4.0 -series) installato in / boot e utilizzato per impostazione predefinita.

    Ho risolto questo problema avvia una vecchia versione del kernel e ho eseguito:

     update-initramfs -u update-grub 

    Il caso per me è stato che stavo utilizzando un kernel 3.x e aggiornato a 4.4.x. Avviare il kernel 3.x lo ha risolto e da allora ho rimosso il 4.4, c'è sicuramente qualcosa di incompatibile o un problema con gli initramf che viene con esso.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.