ho lavorato su DC e crossfilter js e momento ho un grande insieme di dati con 550.000 righe e dimensione 60MB CSV e sono di fronte a un sacco di problemi con esso come browser si blocca eccDC e crossfilter con grandi serie di dati
Così , Sto cercando di capire come dc e crossfilter si occupano di dataset di grandi dimensioni. http://dc-js.github.io/dc.js/
L'esempio sul loro sito principale è molto fluido e dopo aver visto timelines-> memoria (in consolle) va ad un massimo di 34 MB e lentamente riduce con il tempo
Il mio progetto sta prendendo la memoria in la gamma di 300-500mb per la selezione a discesa, quando si carica un file jSON e rende l'intera visualizzazione
Quindi, 2 domande
- Qual è il backend per l'esempio sito dc? È possibile trovare l'esatto file di back-end?
- Come posso ridurre il sovraccarico di dati sulla mia RAM dalla mia applicazione, che è in esecuzione molto lentamente e alla fine si blocca?
Puoi condividere un esempio? Stai parlando di una quantità abbastanza grande di dati, ma non è necessariamente al di fuori dell'ambito di ciò che è gestibile. –