Perché i fornitori di nubi si calcolano all'ora? Chi spegne comunque i loro server?

Non sono un tecnico / unix / sysadmin ignorante, ma non riesco ancora a capire perché Amazon, Rackspace, Azure, GoGrid, Linode e questi ragazzi calcolano i loro casi all'ora utilizzati …

Devo chiedere … Chi sulla terra spegne i server?

  • Postfix su AWS EC2 utilizzando il relè SMTP
  • AWS EC2 o RackSpace
  • android.apis.google.com Domanda DNS a EC2
  • Il server Apache su EC2 risponde in localhost, ma non pubblico IP
  • Strategia di backup semplice per Amazon EC2 istanze / volumi?
  • Migrazione a AWS Cloud con scala automatica - where mettere Redis e ElasticSearch?
  • * aaS ha iniziato come strategia di bundle / plan in cui si paga per un secchio di servizi e non wherevi preoccuparvi dell'utilizzo … paghi 100 $ al mese e tu ottieni questo, questo e quello.

    Ora, quando voglio fare il passaggio a Amazon EC2, mi confondo con la percentuale di utilizzo, i calcoli di trasferimento … è troppo dannatamente dura e richiede tempo. Nei miei calcoli finora posso dire che ordinare due server dedicati con 24GB RAM e installare ESXi e gestire tutta la cosa è molto più economico …

    Mi sto perdendo qualcosa?

    3 Solutions collect form web for “Perché i fornitori di nubi si calcolano all'ora? Chi spegne comunque i loro server?”

    Prendi un'infrastruttura scalabile come quella con cui sto lavorando. Nel mio caso, la quantità di lavoro che possiamo mettere fuori bilancia bene con il numero di nodes di elaborazione che abbiamo in esecuzione. Abbiamo una capacità all'interno e stiamo lavorando per utilizzare esattamente questi tipi di servizi per la domanda che supera la nostra capacità interna.

    Quando ci serve, distribuire un gruppo di nodes di elaborazione a un servizio Cloud come quello. Una volta che la distribuzione è automatizzata, dovrebbe essere una questione di dire al sistema "Ho bisogno di 20 nuovi nodes", avendo spinto fino a 20 nuove istanze, modificando i nomi come necessario e iniziando a masticare via. Una volta che il progetto è stato fatto, spegniamo questi nodes e continuiamo in modo meraviglioso.

    A causa dei fattori di costo coinvolti (nel nostro caso, non sarà per tutti), se ciò succede spesso, è un buon segno che dobbiamo ridurre ulteriormente le nostre infrastrutture interne.

    Ci sarà certamente un "carico base" che continuiamo a funzionare per tutto il tempo e per questo ci piace ospitarlo in proprio. Probabilmente avremo bisogno di alcune istanze sempre presenti sul cloud di utilità per determinate ragioni di applicazione e di localizzazione dei dati, ma dovrebbero essere nelle singole cifre. Quelli pochi server dovrebbero essere in grado di supportre fino a centinaia di nodes di elaborazione a breve durata.

    Nei mesi in cui non abbiamo mai bisogno di utilizzare la capacità di "surge", dobbiamo ancora pagare i server di base che abbiamo bisogno per continuare a eseguire lì. Tuttavia, per altri mesi quando abbiamo più lavoro di quello che sappiamo, potremmo avere centinaia di macchine in un determinato momento.


    Quanto ai calcoli, ho fatto proprio questo. Richiede un foglio di calcolo e conosce molto bene l'ambiente. Sapevo quanti dati generalmente prendono in un mese (la width di banda in trasferimento), quante volte i dati vengono letti come parte dei nostri methods di elaborazione (i tassi di trasferimento di memory), quale fattore di crescita è per i dati elaborati rispetto ai dati di origine (i costi di memorizzazione dei dati), nonché una stima di quanto percentuale durante un mese stiamo facendo effettivamente il lavoro (le ore utilizzate). Se non lo si dispone, è difficile stimare con precisione la fatturazione.

    Sono stato in grado di prendere ciò che sappiamo del nostro ambiente privato e di build un foglio che prevede che qualcosa di simile a AWS avrebbe costi rispetto al rotolamento del nostro proprio in un colo. Era molto informativo. Nel nostro caso specifico il fornitore di nubi che stavamo considerando rappresentato ovunque da un aumento dei costi di 2x a 10x, invece di farci tutti noi stessi. Questo è stato estremamente utile per la gestione superiore, che stava considerando di andare all-in con quel fornitore di cloud.

    Abbiamo finito con un approccio ibrido, in quanto la capacità di sovrapposizione che la nuvola rappresenta è molto utile. Scommette di dire ai clienti che non possiamo rispettare le loro scadenze perché abbiamo preso troppo lavoro. Se c'è niente, la capacità delle nuvole può andare avanti finché non possiamo get gli aggiornamenti infrastrutturali in atto per la nostra pianta interna.

    Metà del punto delle soluzioni cloud è quello di essere in grado di scalare rapidamente e poi di scendere di nuovo quando non è necessario il potere extra. Hanno caricato per unità di tempo (o per unità di altre risorse) in modo da poter flessione quanto hai rapidamente. Se la tua applicazione web ottiene + 300% di utilizzo durante la sera, perché pagare per i server che non hai bisogno per il resto del tempo.

    I prezzi orari vi danno flessibilità se è necessario aggiungere o rimuovere la capacità di adottare anche esplosioni orarie (es. Ore di punta). Se hai bisogno di qualcosa che funziona istantaneamente, di solito ci sono una sorta di sottoscrizioni o così. Amazon ha delle prenotazioni, altre hanno pacchetti mensili. Ma sì, rende ancora più complicato calcolare. Può essere un po 'più facile anche se con Cloudorado , che calcola i prezzi per più fornitori.

    Penso che il buon approccio è quello di avere server dedicati per il carico costante e la nuvola per i bursts. Si chiama hosting ibrido, ma non molti lo forniscono (ad esempio Rackspase e GoGrid ). Ma anche tenere presente che con alcuni fornitori di cloud, è ansible regolare la dimensione dell'istanza alle proprie esigenze (definire separatamente RAM, CPU, archiviazione). Ciò può anche portre alcuni risparmi se hai bisogno di risorse in proporzioni poco comuni. Questi sono per esempio CloudSigma , ElasticHosts o OpSource .

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.