Le performance del backplane di SAS Expander scendono quando sono attivi più di 8 unità?

Stiamo utilizzando un controller RAID LSI 9211-8i (lampeggiato in modalità IT) in uno slot PCI-e 2.0 x8. È collegato a un backplane supermicro SAS 836EL1 con 1 cavo SFF-8087. Abbiamo 16 unità installate.

Quando facciamo un test "badblocks" di una prestazione del disco è di circa 140 mbyte / s. Quando effettui i test di badblock simultaneamente su più unità, tutte le unità continuano a get circa 140mbyte / s fino a superare 8 unità.

  • SAS vs interface SAS2
  • Ci sono vantaggi per colbind le unità SATA3 alle porte SAS?
  • È normale che un disco SAS abbia qualche block difettoso o dovrei sostituire l'unità ASAP?
  • Piccole imprese che utilizzano la virtualizzazione
  • Ho bisogno di tabs RAID Fusion-io?
  • Qual è la differenza tra una scheda HBA e una scheda RAID?
  • Con 16 drive attivi abbiamo solo 60mbyte / s su each disco.

    È questo comportmento normale per un backplane di espansore? Se no, qual è la causa?

  • Raidz in FreeNAS che consuma più spazio del previsto
  • Espansori SAS per arrays JBOD DIY
  • Come posso utilizzare in modo sicuro l'allocazione sottile di archiviazione?
  • volume iSCSI per iper-v
  • Azionamento ISCSI non montato per l'uso in Windows Server 2012
  • Crea un raid 6 con 7 unità
  • 3 Solutions collect form web for “Le performance del backplane di SAS Expander scendono quando sono attivi più di 8 unità?”

    Ecco come funzionano gli espansori di SAS. Sei tecnicamente sovraccaricato, ma in realtà non dovresti essere.

    • I dischi WD2003FYYS collegano a 3.0Gbps, ma sono solo in grado di 1.2Gbps / disco.
    • Il backplane / espansore del drive Supermicro dispone di 16 porte con downlinks 6.0Gbps per le unità, ma un singolo SFF-8087 uplink al controller.
    • Da ciò che posso dire, questo backplane support solo una connessione SAS SFF-8087 ad un HBA. Il model 836EL2 support più collegamenti.

    immettere qui la descrizione dell'immagine

    La connessione SAS SFF-8087 è in grado di produrre 4 x 6.0Gbps == 24Gbps.

    140 megabyte / secondo è ~ 1.2Gbps. 8 dischi a tale velocità sono circa 9Gbps. Si può probabilmente get un paio di nuovi dischi che vanno prima che i tassi abbassino. Conti per un certo overhead.

    Stai superando le velocità di 3.0 Gbps (soffitto da 12 Gbps su un cavo SAS a 4 corsie).

    Può verificarsi un problema di negoziazione tra il LSI HBA e il backplane di espansione. Controllare il controller LSI e vedere se sta mostrando 3.0Gbps collegamento sulla port SFF-8087 o 6.0Gbps. Stai ricevendo solo velocità di 3.0 Gbps, ma tutti i dispositivi della catena (ad exception dei dischi) sono 6.0 Gbps.

    Avete portto aggiornato il firmware dell'espansore?

    Edit:

    Penso che ho funzionato in questo lavoro … C'era un problema con questo tipo di espansore e controllori LSI che causavano i drive SATA a collegarsi a 1.5Gbps. Date un'occhiata qui. Quindi le questioni di negoziazione possono essere sul lato dell'auto. È ansible controllare anche il firmware del controller LSI.

    Gli espansori SAS non (a partire da questa scrittura) "memorizzano e inoltrano" come un interruttore Ethernet. Possono andare solo velocemente come il dispositivo di segnalazione più lento dell'arrays.

    In questo caso, le unità supportno solo 3,0 Gbps e il cavo singolo SFF-8087 trasport 4 porte al controller, per un totale di 12,0 Gbps. Con overhead di codifica, che ti lascia circa 1200 MB / s per condividere tra le 16 unità, approssimativamente 75 MB / s per unità. Getta in qualche protocollo SATA e siamo al di sotto dei 60 MB / s che stai vedendo.

    Se si aggiunge un altro cavo SFF-8087 per un totale di 8 x 3,0 Gbps, si raddoppierà la width di banda del bus disponibile, raggiungendo realisticamente ~ 120 MB / s per unità. Viceversa, se le unità supportno 6.0 Gbps anziché 3.0, si potrebbe raggiungere lo stesso 120 MB / s su un singolo cavo o raggiungere ciascun path di picco di ciascuna unità su due cavi. (TL: DR: utilizzare due up-link SFF-8087 quando ansible)

    Questo è uno dei motivi per cui le unità SATA e SAS sono ora in arrivo con velocità di segnalazione di 6,0 o anche 12,0 Gbps. I singoli dischi possono fornire solo una piccola frazione di tale throughput, ma eseguendo l'integer bus SAS ad una velocità più rapida, è in grado di gestire più unità prima della strozzatura.

    Penso che il collo della bottiglia sia sul singolo cavo SFF-8087 che ti dà circa 12GB / S in tutto.

    È ansible confermare questo, lasciando cadere 4 dischi e vedere se la prestazione è di 80 MB / s per disco (16 ^ 60/12) o provare a utilizzare 2 cavi per connettersi a LSI 9211-8i.

    Leggete il manuale. http://www.supermicro.com/manuals/other/BPN-SAS-836EL.pdf

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.