Come posso impegnare RHEL / CentOS / SL 7 nell'avvio normalmente con software RAID 1 degradato?

Ho installato un nuovo server (la mia prima con questa versione di Linux). Ho installato un paio di HDD SATA vuoti da 160 GB (uno Seagate e uno WDC, ma con esattamente lo stesso numero di settori LBA) in una vecchia macchina e ho deciso di installare Scientific Linux 7.0 (RHEL rebranded) in un RAID 1 (software specchio).

Il primo singhiozzo era che non riuscivo a capire come get installatore SL / RHEL (Anaconda) per impostare i due dischi per RAID1. Così ho avviato da un CD PartedMagic e l'ho usata per eseguire il partizionamento.

  • SELinux impedisce a Apache di scrivere su un file
  • Scambio rapido sotto RAID 1
  • Qual è il significato della funzionalità "Personalità" in / proc / mdstat
  • Miglior modo per sviluppare il software RAID 1 di Linux a RAID 10
  • Dove dovrei vivere la mia partizione di swap / s quando si utilizza il software RAID1? Prestazione? LVM?
  • In che modo RAID rileva un difetto HD?
  • Ho partizionato le due unità identicamente. Ogni drive ha una grande partizione per RAID1 + ext4 da montare a / , una piccola partizione (attualmente inutilizzata) per RAID1 + ext3 da montare in /safe e una partizione Linux Swap da 3 GB. Ho usato fdisk per cambiare i tipi delle partizioni RAID su ciascuna unità a FD e mdadm per creare gli arrays RAID:

     mdadm --create --verbose /dev/md0 --raid-devices=2 --level=1 /dev/sda1 /dev/sdb1 mdadm --create --verbose /dev/md1 --raid-devices=2 --level=1 /dev/sda2 /dev/sdb2 

    Poi ho chiuso, ho avviato il DVD SL e ho provato nuovamente l'installazione. Questa volta l'installatore ha riconosciuto gli arrays RAID1, li ha formattati rispettivamente per ext4 e ext3 e sono stati installati senza problemi.

    A questo punto, tutto sembrava bene. L'ho chiuso, l'ho ripreso, e ha fatto funzionare bene. Fin qui tutto bene.

    Quindi ho provato la funzionalità RAID1: ho arrestato il computer, ho rimosso una delle unità e ho cercato di avviarlo. Mi aspettavo di mostrare alcuni messaggi di errore circa l'arrays RAID essere degradati e poi venire alla normale schermata di login. Ma non funzionava. Invece ho ottenuto:

     Welcome to emergency mode! After logging in, type "journalctl -xb" to view system logs, "systemctl reboot" to reboot, "systemctl default" to try again to boot into default mode. Give root password for maintenance (or type Control-D to continue): 

    La stessa cosa succede a prescindere da quale unità manca.

    Non va bene! Lo scopo degli azionamenti a specchio è quello di garantire che il server continui a funzionare se una delle unità non riesce.

    Ctrl-D mi torna a ripetere lo stesso " Welcome to emergency mode ". Quindi inserisce la mia password di root e poi " systemctl default ".

    Così ho provato un esperimento. Al menù di avvio ho premuto e per modificare i parametri di avvio del kernel e rhgb quiet cambiato " rhgb quiet " su " bootdegraded=true " e poi avviato. Nessuna gioia.

    Che mi permetta di vedere più messaggi di stato da volare, ma non ha permesso alla macchina di avviarsi normalmente quando manca un'unità. Ancora si fermò allo stesso modo " Welcome to emergency mode ". Di seguito è quello che ho visto con l'unità Seagate rimossa e l'unità WDC restante. Le ultime linee sembrano le seguenti (tranne che "…." indica where sono stanco di digitare):

     [ OK ] Started Activation of DM RAID sets. [ OK ] Reached target Encrypted Volumes. [ 14.855860] md: bind<sda2> [ OK ] Found device WDC_WD1600BEVT-00A23T0. Activating swap /dev/disk/by-uuid/add41844.... [ 15.190432] Adding 3144700k swap on /dev/sda3. Priority:-1 extents:1 across:3144700k FS [ OK ] Activated swap /dev/disk/by-uuid/add41844.... [ TIME ] Timed out waiting for device dev-disk-by\x2duuid-a65962d\x2dbf07.... [DEPEND] Dependency failed for /safe. [DEPEND] Dependency failed for Local File Systems. [DEPEND] Dependency failed for Mark the need to relabel after reboot. [DEPEND] Dependency failed for Relabel all file systems, if necessary. [ 99.299068] systemd-journald[452]: Received request to flush runtime journal from PID 1 [ 99.3298059] type=1305 audit(1415512815.286:4): audit_pid=588 old=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:auditd_t:s0 res=1 Welcome to emergency mode! After logging in, type "journalctl -xb" to view system logs, "systemctl reboot" to reboot, "systemctl default" to try again to boot into default mode. Give root password for maintenance (or type Control-D to continue): 

    Sembra pertanto che l'installazione su unità RAID1 speculari raddoppierà la probabilità di un guasto dell'unità che riduce il server (in quanto vi sono due unità anziché una). Non è quello che speravo di get con unità speculari.

    Qualcuno sa come farlo avviare e funzionare normalmente (con un arrays RAID1 degradato) quando un disco rigido non riesce?

    Due altre note:

    1. Sono nuovo a RHEL / SL / CentOS 7, quindi alla schermata "Selezione software", durante l'installazione SL, ho dovuto fare qualche indovinare. Ho scelto: "Sistema generale" + server FTP, file e server di archiviazione, suite di Office e produttività, virtualizzazione Hypervisor, strumenti di virtualizzazione e strumenti di sviluppo

    2. Vedo alcuni errori apparentemente innocui:

      ATA x : softreset failed (device not ready)

    La " x " dipende da quali unità sono installate. Ottengo più di quegli errori con due drive installati che con solo uno.

    One Solution collect form web for “Come posso impegnare RHEL / CentOS / SL 7 nell'avvio normalmente con software RAID 1 degradato?”

    Si scopre che il problema non era la principale partizione RAID1, erano le altre partizioni.

    In primo luogo, non avrei dovuto usare partizioni di swap. Era semplicemente muto. Anche se ciò avesse funzionato, probabilmente avrebbe probabilmente reso vulnerabile il sistema a un guasto se un'unità disco sviluppò un block difettoso nella partizione di swap. Ovviamente è meglio utilizzare un file di scambio nella partizione RAID1; Non so cosa pensavo.

    Tuttavia, anche la partizione extra ext3 md1 era un problema. Non so perché.

    Una volta rimosso i riferimenti alle altre partizioni (le due partizioni di swap e la partizione ext3 md1 ) da /etc/fstab , il sistema si avviava bene con un'unità, eseguendo l'arrays RAID1 in modalità degradata, come volevo .

    Dopo aver chiuso e reinstallato l'unità mancante, ho ripreso la macchina e ancora funzionava con una sola unità. Ma ho fatto " mdadm --add " per aggiungere l'azionamento mancante e il suo stato è stato " spare rebuilding " per un po ', e poi " active ".

    In altre parole, funziona perfettamente.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.