Ho bisogno di memorizzare circa 100 milioni di record nel database. Circa il 60-70% di essi verrà eliminato quotidianamente e la stessa quantità di record verrà inserita giornalmente. Sento che un database di documenti come Hbase, Big Table si adatterebbe a questo. Ci sono molti altri data store come Cassandra, MongoDb, ecc. Quale data store sarebbe utile per questo tipo di problema dato che ci sarà un'enorme quantità di letture/scritture (ordine di 10 milioni di milioni) al giorno.Il miglior data store per grandi quantità di dati con un elevato numero di letture e scritture
5
A
risposta
3
Sulla base delle caratteristiche che hai citato (JSON Documenti, accessi a chiave, 100 milioni di dischi, equilibrata lettura/scrittura) direi CouchDB o Membase sono buoni candidati (ecco una quick comparison)
Entrambi HBase e probabilmente anche Cassandra funziona, ma per l'HBase avresti bisogno di installare molti componenti (Hadoop, ZooKeeper, ecc.) che non utilizzerai veramente solo per usare e Cassandra è meglio quando hai più scritture che leggere (almeno l'ultima volta che l'ho usato).
Big Table, è purtroppo interna a Google:)
Forse si voleva un confronto di efficienza. È possibile visualizzare ciascuna di queste prestazioni dei data-store sui propri siti Web. Usiamo Cassandra per situazioni simili, ma non ho giocato con altri datastore – Nishant
la natura dei tuoi dati probabilmente influisce anche su questo confronto di database – Prescott
un sacco di archivi dati in grado di gestire 100 milioni di record e questi tassi di lettura/eliminazione. Qual è la dimensione dei record? quali sono i tuoi pattern di accesso ai dati, ecc., scrivi rispetto ai rapporti di lettura ecc.? –