2013-01-22 18 views
5

Che tipo di architettura è necessaria per memorizzare 100 TB di dati e interrogarli con l'aggregazione? Quanti nodi? Dimensione del disco per nodo? Quale può essere la migliore pratica?100 TB di dati su Mongo DB? Possibile?

Ogni giorno verranno scritti 240 GB, ma le dimensioni rimarranno invariate poiché verranno cancellati gli stessi dati.

O qualsiasi altro pensiero sull'archiviazione dei dati e sulle query di gruppo veloci?

+0

possibile duplicato di [Dimensione spazio limite MongoDB?] (Http://stackoverflow.com/questions/4327723/mongodb-limit-storage-size) –

+0

Sì, è, la domanda correlata è scaduta poiché ci sono stati più grandi scenari sul gruppo di utenti da allora. – Sammaye

+1

Hai taggato questo con il tag vertica. Vuoi una qualche informazione su questo? – geoffrobinson

risposta

3

Consiglio vivamente HBase.

Facebook uses it for its Messages servizio, che nel novembre 2010 gestiva 15 miliardi di messaggi al giorno.

Abbiamo testato MongoDB per un set di dati di grandi dimensioni, ma alla fine è stato utilizzato con HBase e lo stiamo utilizzando da mesi.

+0

come hai gestito la gestione dell'infrastruttura? Siamo una piccola startup e non abbiamo ancora risorse per farlo al 100% – noli

+1

Scusa, forse non sto capendo - cosa intendi per gestione dell'infrastruttura? Intendi gestire il cluster Hadoop/HBase? Abbiamo usato Amazon Elastic MapReduce. – Suman

+0

Questa era la mia domanda .. grazie! – noli