UPD:
Dopo aver letto le pagine PipelineDB, mi chiedo solo perché avete bisogno di confrontare queste cose diverse?
Il druido è piuttosto complesso da installare e gestire, richiede diverse dipendenze esterne (come ad esempio zookeeper e hdf/amazon, che devono essere mantenute).
E per quel prezzo si compra le caratteristiche principali di druido: colonna-oriented e distribuiti conservazione e la lavorazione. Ciò implica anche una scalabilità orizzontale della scatola, ed è completamente automatico, non devi neppure pensarci.
Quindi, se non hai bisogno della sua natura distribuita, direi che non hai bisogno di druido.
PRIMA VERSIONE:
non ho alcuna esperienza con pipelinedb (cos'è Google mostra nulla, pls condividere qualche link?), Ma non ho molta esperienza con druido. Quindi vorrei prendere in considerazione (a parte [domanda] velocità e scalabilità): (? Quante righe per sec/min/ora/... può essere inserito )
- ingestione di prestazioni consumi
- RAM di ingestione (quanta RAM ha bisogno di ingerire con velocità di riferimento?)
- livello di compressione (quanti di spazio su disco ha bisogno di uno ora/giorno/mese/... dei dati?)
- tolleranza d'errore (cosa succede quando un certo dei componenti falliscono? È fondamentale per la mia azienda?)
- Caching (basta tenere a mente)
fonte
2017-12-06 13:12:18
Hai trovato qualcosa? Stai cercando la stessa cosa. Con cosa sei andato alla fine e perché? –