2015-04-22 5 views
13

Sulla mia prova grappolo ELK, che sto incontrando il seguente errore quando si tenta di visualizzare i dati dall'ultima settimana.elasticsearch errori/Kibana "troppo grandi quantità di dati, i dati per [@timestamp] sarebbe più grande di limitare

Data too large, data for [@timestamp] would be larger than limit 

l'avvertimento circa schegge mancanza sembra essere fuorviante, perché gli strumenti di monitoraggio elasticsearch kopf e head mostrano che tutti i frammenti funzionino correttamente, e il cluster elastico è verde.

enter image description here

Un utente del gruppo google per elasticsearch ha suggerito di aumentare la ram. Ho aumentato i miei 3 nodi a 8 GB ciascuno con un heap da 4,7 GB, ma il problema persiste. Generico circa 5 GB a 25 GB di dati al giorno, con una conservazione di 30 giorni.

risposta

31

La pulizia della cache allevia i sintomi per ora.

http://www.elastic.co/guide/en/elasticsearch/reference/current/indices-clearcache.html

Cancella un unico indice

curl -XPOST 'http://localhost:9200/twitter/_cache/clear' 

Cancella multipli indicies

curl -XPOST 'http://localhost:9200/kimchy,elasticsearch/_cache/clear' 

curl -XPOST 'http://localhost:9200/_cache/clear' 

O come suggerito da un utente in IRC. Questo sembra funzionare al meglio.

curl -XPOST 'http://localhost:9200/_cache/clear' -d '{ "fielddata": "true" }' 
+0

Mi sono imbattuto negli stessi problemi e svuotare la cache li risolveva. Non sono sicuro se questo è qualcosa che deve essere fatto periodicamente. Grazie! – Carlos

+0

Questo ha funzionato! Grazie! Non ho mai visto questo problema prima nonostante l'uso di ES da diversi anni ... molto strano. –

+0

Sì, ha avuto lo stesso problema e ha cancellato la cache e tutto stava funzionando di nuovo. Domanda a stelle e stelle. – Gman