Perché la mia connessione MPIO con la SAN è limitata a 1 Gbps quando si utilizza Linux?

Sto collegando una scatola RHEL5 a un Dell EqualLogic PS5000X e vedendo un massimo di 1 Gbps anche utilizzando MPIO con tre gigabit NIC.

Ho tutte e tre le interfacce sul PS5000X e tre interfacce iSCSI dedicate sul server collegato allo stesso switch. Quando si usa più di un'interface per connettersi alla SAN, ottengo solo traffico 1 / n su ciascuno. Ho seguito la guida di installazione Dell e tutto sembra funzionare perfettamente a parte i miei numbers di throughput.

  • Eseguire il backup di LUN iSCSI in diretta
  • Come specifico IP di ascolto del server VNC sotto Linux?
  • Quale ruolo svolge la virtualizzazione in una networking con una SAN?
  • Quali problemi avrò durante l'esecuzione di un SAN oltre la durata di supporto?
  • Prestazioni per ZVOL presentate su iSCSI?
  • Può ESXi (4.1) montare un datastore VMFS accanto ad una istantanea di sola lettura?
  • [root@testbox ~]# multipath -ll linuxvol (36090a02840c3bd2f5ec324010000707f) dm-5 EQLOGIC,100E-00 [size=50G][features=1 queue_if_no_path][hwhandler=0][rw] \_ round-robin 0 [prio=3][enabled] \_ 6:0:0:0 sdf 8:80 [active][ready] \_ 14:0:0:0 sde 8:64 [active][ready] \_ 15:0:0:0 sdi 8:128 [active][ready] 

     [root@testbox ~]# dd if=/dev/zero of=/mnt/linuxvol/testfile obs=64k count=16M 16777216+0 records in 131072+0 records out 8589934592 bytes (8.6 GB) copied, 76.4894 seconds, 112 MB/s 

    Posso anche chiudere le sessioni iSCSI a metà trasferimento e guardare l'utilizzo dell'interface sui rimanenti collegamenti salto dal 33% al 50% al 100% mentre vado da tre a due a una singola session. Ho provato a modificare le varie profondità di coda e le impostazioni rotonde di rottura che fanno solo una piccola differenza.

    Il PS5000X è stato impostato con 14 dati e 2 unità di ricarica hot 10k RPM SAS. Il mio volume di prova è impostato su RAID-10 con più initatori abilitati. Nessun provisioning sottile, nessun snapshot, nessun altro traffico sulla SAN.

    Che cosa mi manca? C'è qualche impostazione MPIO che ho bisogno di regolare sul sistema operativo?

    Aggiornamento: l'interruttore è un HP ProCurve 4104GL. Non support i frame jumbo. Il controllo di stream è abilitato in tutte le porte SAN. L'tree Spanning è disabilitato. Gli unici dispositivi collegati all'interruttore sono il PS5000, il server di prova e una port di uplink. So che il traffico non sta attraversando il uplink perché posso guardare l'utilizzo della port sull'interruttore durante l'esecuzione del test. Sto guardando anche il grafico dell'interface di networking sul PS5000 e si allinea perfettamente con l'utilizzo dell'interruttore, circa il 33% di throughput su each interface.

    3 Solutions collect form web for “Perché la mia connessione MPIO con la SAN è limitata a 1 Gbps quando si utilizza Linux?”

    Risulta che il problema era relativo all'interruttore. Quando abbiamo finalmente sostituito l'HP con un nuovo switch Dell siamo riusciti a get velocità multi-gigabit non appena tutto è stato collegato.

    Solo il cibo per il pensiero … avevamo scatole Server 2003 con multipath software IO su un interruttore HP ProCurve per Dell PS5000 SANs funzionanti bene … dirò che abbiamo dovuto combattere con un sacco di impostazioni sia sul lato Dell EqualLogic e il lato del software iSCSI in Windows per get tutto ciò che funziona senza problemi.

    In Windows un passo fondamentale per far funzionare le cose è stato spostare il bilanciamento del carico da "minima coda" a "round robin" (questo è dalla memory in modo da tagliarmi un po 'se non ricordo i termini esattamente giusto). Una volta che abbiamo fatto questo, abbiamo potuto vedere la width di banda alla banalcalizzazione EqualLogic attraverso le nostre tre NIC dedicate iSCSI.

    Assicurati che il tuo scenario di lavoro iSCSI sia sopravvissuto a tutti i riavvolgimenti! Abbiamo dovuto modificare l'ordine in cui i servizi iniziano su Windows (cambiando le dependencies dei servizi) per get che iSCSI e MPIO funzionino "giusto" dopo un riavvio

    Quali sono le tue tabs di networking? Integrato o carte? Quali sono i limiti di autobus della loro connettività? Quindi sono fondamentalmente le interfacce di networking incorporate nella scheda madre o sono una scheda PCI di qualche forma? Qual è il bus PCI, PCI-X o cosa? Qual è la velocità del bus? Il sistema non può spingere più della velocità del bus del sistema di interface

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.