Allocazione del disco SAN

Sto cercando di get una SAN MD3620i con 24 unità per virtualizzare il nostro envoroment e stavo chiedendo il modo migliore per scolpire il disco.

Per cominciare avrò in esecuzione DC, database SQL, repoting SQL, Exchange e un server web alla fine cercando di spostare il resto del nostro ambiente a questa configuration. Sono allungato per il budget o avrei cercato di get un ulteriore MD1220. Ho un disco sufficiente qui? Quali suggerimenti su come dovrei impostare questo?

  • Perché il mio sistema di Windows Server 2003 è congelato sotto un disco rigido I / O?
  • Domini virtuali Postfix: come accettare tutti i sottodomini tranne due?
  • Come faccio a sapere se devo distriggersre il numero virtuale di NUMA su VM che eseguono applicazioni più vecchie?
  • È ansible get una copia di Amazon Linux per l'utilizzo al di fuori di AWS
  • Utilizzo di un NAS di fascia alta come vSphere / HyperV Storage
  • posso eseguire VMware e KVM su un singolo host
  • Come mappare una cartella nella memory?
  • 2 Solutions collect form web for “Allocazione del disco SAN”

    Avrei lasciato cadere tutti i 24 dischi nello stesso gruppo di disco per offrire il massimo livello di I / O ansible. Sarai in grado di ospitare applicazioni molto intense di I / O su quella matrix (SQL DB, SQL Reporting e Exchange), quindi avrai tutto quello che puoi get. E per favore non utilizzare dischi RPM da 7.2K; possono essere economici e grandi, ma pagherai in scalabilità delle performance.

    A mio avviso, le ottimizzazioni come mettere il traffico di DB e di Log su diversi mandrini sono probabilmente da annegare nel traffico generale di I / O di virtualizzazione. Avrai due grandi applicazioni di database I / O su questa archiviazione (SQL e Exchange) e (ancora una volta, la mia opinione) avrai bisogno di altrettante overhead di I / O che puoi get, quindi metta tutto in un grande piscina; separando rigidamente DB e Log I / O vi farà scappare più presto.

    Consideriamo inoltre che il tuo server di Exchange Defrag & Backup in linea non coincida con i backup SQL. Queste tre operazioni sono molto pesanti I / O, e non si desidera sovrapporre, se ansible. Per quanto riguarda i Reporting Services, se si dispone di query / report / lavori veramente grandi in esecuzione, provare a evitare quei periodi di backup.

    I DC e i server web sono giocatori molto minori qui, quindi dovrebbe essere benissimo.


    PERCHÉ dovresti metterli in un unico gruppo e non dividerli?

    Con unità 12x 15K e drive 12x 10K, probabilmente fininetworking per avere due gruppi di dischi, uno per each velocità. Non consiglio di dividere ulteriormente.

    Le unità 12x 15K dovrebbero fornire circa 2270 I / O Ops / s per I / O completamente random in R0, 1135-2270 per R10 e 2080 per R5. Le unità 12x 10K dovrebbero fornire 1700 I / O Ops / s (850-1700 in R10, 1560 in R5). Le velocità R10 sono variables perché dipendono dalle percentuali di lettura / scrittura e se il controllore fornirà letture da più strisce (non so se Dell fa o no). Operazioni significative sequenziali saranno più veloci, ma non si può contare su quello con un sistema di storage condiviso.

    Queste sono alcune velocità rispettabili, ma rappresentano anche le performance massime per each tipo di disco. Andare con il model completo di separazione per ciascuno dei cinque servizi identificati:

    • SQL
    • Reporting SQL
    • Scambio
    • AD DC
    • Web-serving

    Avrei tagliato gli ultimi due su un paio di drive da 300 GB di 10K in una configuration R1, lasciando gli altri 22 dischi per il resto. Per quanto riguarda il resto …

    • SQL
      • 1x R5 set di 6 unità 15K per i tronchi
      • 1x R5 set di 4 drive 10K per database
    • Reporting SQL
      • 1x R5 set di 3 drive 10K per database e simili
    • Scambio
      • 1x R5 set di 6 unità 15K per posta
      • 1x R5 set di 4 unità 10K per registri

    A seconda dei requisiti di capacità, potrebbe essere necessario scambiare i volumi DB / Log. Una configuration come questa fornisce sia SQL che Exchange un totale di 945 I / O Ops / s per i registri e le mailstore rispettivamente e 420 I / O Ops / s per i database e registri rispettivamente. La segnalazione ottiene 280 I / O ops / s. Ciò dà una performance complessiva del sottosistema di disco di 3230 I / O Ops / s.

    Confronta con 3640 le performance complessive del sistema con solo due gruppi di dischi. Questo è il 12% delle performance che stai sacrificando per isolare i tuoi sisthemes di produzione. Uno dei vantaggi principali dei sisthemes di storage condivisi come questo è che è ansible utilizzare in modo più efficiente l'archiviazione. Separare le cose come sopra significa che il tuo vantaggio principale è il risparmio sui costi per avere tutta la memory in un dispositivo su un insieme di controller RAID anziché avere più controllori RAID.

    Andando con la configuration siled sopra, hai colpito i bottlenecks I / O più velocemente :

    • I backup del tuo DB possono saturare completamente i 945 I / O Ops / s che sono stati assegnati e richiederà molto più tempo se se avessero duplice spazio disponibile a loro. Durante questo periodo le query DB saranno notevolmente più lente. Questo è un collo di bottiglia I / O.
    • Quando si tratta di query occasionali complesse, i volumi di DB non possono utilizzare la capacità non utilizzata in altri silos per restituire i risultati più velocemente. Saranno vincolati dai dischi esplicitamente assegnati a loro. Questo è un collo di bottiglia I / O.
    • Durante il backup di Exchange (che può andare molto veloce, è così bello), i tuoi backup richiederanno più tempo, causando problemi di performance visibili per gli utenti che interagiscono con il sistema durante i backup. Questo è un collo di bottiglia I / O.

    Quando altri dicono che un gruppo di dischi significa che colpisci più velocemente i bottoni di I / O, ciò che di solito significa è che un'applicazione male comportmento può influire sulla performance dell'integer e è meglio silo tutto per proteggere tutto da tutto il resto. Stanno trattando lo stoccaggio come vecchi sisthemes operativi usati per trattare la memory: tutti hanno un'allocazione di memory discreta all'avvio e nessuno può andare fuori di esso. A differenza della memory, in questo model non esiste una memory virtuale, quindi è la memory fisica che viene assegnata ai processi all'avvio.

    Meglio trattare come gli OS moderni trattare la memory: virtualmente. Il sistema dispone di 3640 I / O ops disponibili, perché non lasciare che tutto pensa di avere tanto da giocare. Tutto ciò non verrà utilizzato tutto il tempo e il sottosistema di archiviazione sarà in grado di servire la maggior parte delle richieste. Se la domanda arriva a quel livello, le cose cominciano a sbattere (IOWAIT aumenta), ed è ora di analizzare il sistema per capire cosa sta causando i rallentamenti.

    Beh, non sono esperto, ma per il mio ambiente ESXi che gestisce una piccola DC, un piccolo DB SQL e un server Exchange. Abbiamo appena raccolto tutto l'immagazzinaggio in una piscina.

    Sulla base di ciò che sto leggendo penso di più di come si vuole allocare lo spazio sarà lasciato in su questo singolo VM anziché il backend di archiviazione.

    Se stai usando VMware, avrei certamente utilizzato il provisioning sottile sui dischi VM in modo da non occupare tutto lo spazio finché non ne hanno bisogno. Ciò ci ha fatto risparmiare molto spazio rispetto a tutto quanto fornito.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.