Come meglio monitorare il logstash?

Ho visto questa domanda nella mailing list alcune volte ma non ho avuto una risposta soddisfacente.

Come meglio controllare che la pipeline non sia bloccata? Clienti -> logstash -> ricerca elastica.

  • Come aggiungere i registri di accesso di AWS ELB per logstash con l'input S3?
  • Come monitorare l'utilizzo della RAM per i VM Hyper-V?
  • Logstash non può leggere i file che dovrebbe avere accesso anche
  • Buona introduzione al monitoraggio del server?
  • Qual è la differenza tra OpenTSDB e Graphite?
  • Monitoraggio generale automatizzato del server linux
  • Logstash e soprattutto elasticità di ricerca sono soggetti a fame di risorse. Sono entrambi fantastici a raccogliere where sono partiti ma come, esattamente, sono persone a guardare i loro osservatori?

    Benvenuti.

  • Logstash sicuro e elasticità di ricerca
  • 4 Solutions collect form web for “Come meglio monitorare il logstash?”

    Personalmente verrò effettivamente che il redis stia ancora sterminando l'host centrale di logging, che è a monte di LS + ES.

    vale a dire: il redis-cli llen logstash è less di qualche numero fisso.

    Questo non può indicare che i registri vengono visualizzati in redis a tutti però, ma che potrebbe essere controllato troppo suppongo.

    Qualcosa di come controllare le redis-cli info | grep total_commands_processed redis-cli info | grep total_commands_processed continua ad aumentare, forse?

    Io uso zabbix nel mio ambiente, ma suppongo che questo metodo potrebbe funzionare anche in altre configurazioni. Ho configurato il command seguente che zabbix può utilizzare:

     UserParameter=elasticsearch.commits,/usr/bin/curl -s 'localhost:9200/_cat/count?v' | /bin/sed -n '2p' | /bin/awk '{print $3}' 

    Ciò restituirà il numero di record di elasticità elencati impegnati in totale. Quindi prendo questo valore e diviso per il numero di secondi da quando ho preso l'ultimo campione (verifico each minuto), se questo numero scende al di sotto di un limite arbitrario, posso allertarlo. Io uso anche zabbix per controllare se il logstash PID è morto, e allarme anche quello, e eseguire il seguente command:

     UserParameter=elasticsearch.health,/usr/bin/curl -s 'http://localhost:9200/_cluster/health?pretty=true' | /bin/sed -n '3p' | /bin/awk -F'\"' '{print $4}' | /bin/sed s/yellow/0/ | /bin/sed s/green/0/ | /bin/sed s/red/1/ 

    Ciò restituirà 1 se la salute del cluster è andata in rosso (giallo e verde sono ok), che posso anche allertare.

    Controllare che i registri al secondo all'estremità finale (ad es. Elasticità di ricerca) siano al di sopra di una linea di base.

    Cioè, fare una fine alla verifica finale, se il tuo risultato finale funziona correttamente, sai che tutti i passaggi del pipeline funzionano correttamente.

    Se avete spesso problemi, o avete bisogno di una migliore introspezione, iniziare a strumentare each pezzo della pipeline come redis come suggerito in precedenza.

    Usiamo diversi approcci:

    1. Monit , per ascoltare le porte Elastiche e Logstash e riavviarle
    2. Per i casi in cui è accaduto qualcosa di brutto e tutto è in atto da prospettiva monit, ma i log non vengono consumati / memorizzati c'è un semplice script che controlla l'indice attivo each ora e gli avvisi nel caso in cui il numero di documenti non sia cambiato nell'ultima ora.
    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.