Trasferimento di networking iSCSI da 10Gbps a soli 2Gbps

Ho un problema di performance con la mia SAN. Ho una configuration completa di networking privata a 10Gbps. Ho la seguente configuration

1 – Mac collegato con Transciever via Fiber 10GbE
1 – Windows 7 PC con 10GbE
1 – L'interruttore HP con tutte le porte è 10GbE
2 – Quantum StorNext Server con 10GbE
1 – Dell Compellent Solution con 2 controller collegati alla networking a 10GbE
Tutti i server, gli switch ei computer hanno staticamente assegnati IP

  • NIC adesione Linux in cima alle interfacce vlan?
  • Collegamenti in rame 10Gb instabili, tabs Broadcom e Intel agli switch Cisco 4900M
  • Qual è la frequenza di clock all'interno di tabs Ethernet da 10Gb e 100Gb?
  • iSCSI SAN - bottiglia di networking adattatore di networking
  • Configurazione di NIC HP "Multifunction" per iSCSI SAN
  • Interruttore consigliato per un'implementazione iSCSI
  • Compellent Config
    Livelli 1 – 10K SAS unità in RAID 10
    Livelli 2 – 7200 SAS unità in RAID6 (12 gruppi di 13 unità in ciascuno)

    informazioni addizionali
    Opzioni del carico di TCP del client Windows 7
    IPv4 Checksum Offload – Abilitato
    TCP Checksum Offload – Abilitato
    UDP Checksum Offload – Abilitato
    Grande invio di scarico – Abilita
    Jumbo Packet – 9014Bytes abilitato

    Ho montato il volume StorNext sul mio PC di Windows 7 e la mia Lion Workstation. Purtroppo tutte le mie velocità di trasferimento sono a circa 2Gbps o 2.8Gbps (se sono veramente fortunato). Stavo cercando di get alless 5Gbps di velocità da questa configuration, ma sono in media circa 2Gbps o poco più di 250MBps di trasferimento tassi di copia di file. Quando posso mappare un LUN direttamente alle caselle e poi formattare in modo nativo con HFS (con journaling) sul MAC o NTFS sul PC Windows 7 e quindi copiare un file, ottengo circa 180 MBps. Quindi la mia prestazione su un LUN direttamente mappato è più lenta del mio volume StorNext. Eventuali suggerimenti? Qualcuno ha visto performance degradate su iSCSI con 10GbE? Qualsiasi aiuto sarebbe Awesome! Grazie!

  • HP ProCurve 5406zl non accetta il cavo di collegamento diretto con errore "Non un ricetrasmettitore HP Networking"
  • Chiunque può raccontare la propria esperienza con gli adattatori Ethernet da 10g su Linux
  • Come get più connessioni NFS / TCP allo stesso server?
  • I transceiver da 10GbE SFP devono corrispondere?
  • è ansible colbind direttamente un client e un server con cavi in ​​rame 10GBASE CX4?
  • Il process ksoftirqd sovraccarica la CPU con width di banda e più connessioni di networking
  • 4 Solutions collect form web for “Trasferimento di networking iSCSI da 10Gbps a soli 2Gbps”

    1.) Jumbos – aiuto molto se stai vedendo un sacco di carico del processre per il traffico di interrupt, ma se TCP funziona correttamente dovrebbe essere in grado di rampa bene oltre 2G su un collegamento 10G. Ho visto un sacco di collegamenti 10GE in esecuzione al di sopra del 90% senza jumbos abilitato.

    2.) Se utilizzi jumbos, abiliti la stessa dimensione su each NIC e each switchport nel VLAN e / o nel dominio broadcast. PMTU funziona quando i pacchetti attraversano i router e mescolano i valori MTU all'interno della stessa networking porterà a nient'altro che la miseria.

    3.) Non ho particolarmente familiarità con l'attrezzo Procurve, ma il traffico TCP può essere difficile a velocità elevate se ci sono domande sulla disponibilità di buffer. Ho visto altri test in cui questo è stato manifestato (senza apparenti gocce TCP) come un enorme taglio delle performance che finì per essere risolto riducendo effettivamente le size dei buffer.

    4.) Assicurarsi che le impostazioni TCP effettive (1323, SACK, ecc.) Siano tutte configurate in modo coerente. I sisthemes operativi in ​​questione vanno bene dalla scatola, ma non so molto sul nodo di archiviazione. Potrebbe valere la pena di scavare – sia in termini di impostazioni sul dispositivo o tramite un tracciato di protocollo (wireshark o tcpdump) per osservare il dimensionamento delle windows e qualsiasi ritrasmissione in corso.

    5.) Prova a eliminare tante variables che puoi – anche arrivando a un cavo crossover tra uno dei nodes di storage e una singola workstation – per isolare ulteriormente il problema. Non abbiate paura di distriggersre alcune delle scadenze che hai accennato, come è noto che causano problemi di volta in volta.

    Se stai utilizzando 1500 MTU, consiglio # 1, utilizza frames / pacchetti jumbo a ~ 9000. Sembra che i pacchetti Jumbo siano abilitati in una certa misura (basato su "Jumbo Packet – 9014Bytes Enabled"), quindi è anche ansible che si sta occupando di pacchetti che si frammentano. Assicurarsi che tutto il path sia impostato per consentire i pacchetti 9014 byte.

    Non la risposta che cercherai, ma la nostra Compellent SAN non è stata nient'altro che una delusione per le performance. Ho anche avuto numbers di performance simili (prima di saltare su … questo è su un interruttore iSCSI dedicato 10G utilizzando frame Jumbo, e tutto è stato validationto sia da CoPilot e da Dell "Team Tiger" .Il nostro altro SANS (EMC e molti Equalogici) hanno buone performance comparabili). Ciò che ci ha portto fuori da questo particolare collo di bottiglia di performance è stato sostituire un controller difettoso.

    Hai avuto un look co-pilota sulla configuration? Se impostato correttamente, la SAN segnalerà comunque la casa e può già essere contrassegnata.

    Quali velocità di interface hai su quelle macchine client? Qualsiasi struttura di networking interessante? Driver aggiornati? Cosa sembra la CPU / memory in Monitoraggio risorse durante il test di trasferimento?

    Se sei preoccupato per le performance della networking, prova a eseguire iperf per verificare le velocità di networking tra i computer; ciò contribuirebbe a escludere questioni relative alla networking.

    Hai considerato di distriggersre totalmente i frame jumbo?

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.