Sto cercando un metodo efficiente (sia dal punto di vista delle risorse del computer che di apprendimento/implementazione) per unire due frame di dati più grandi (dimensioni> 1 milione/300 KB file RData).Alternative efficienti da unire per i dataframes più grandi. R
"unione" in base R e "join" in plyr appaiono per consumare tutta la memoria in modo efficace bloccando il sistema.
Esempio
carico test data frame
e provare
test.merged<-merge(test, test)
o
test.merged<-join(test, test, type="all")
-
-
Il seguente post fornisce un elenco di unione e le alternative:
How to join (merge) data frames (inner, outer, left, right)?
Di seguito consente di ispezione dimensioni dell'oggetto:
https://heuristically.wordpress.com/2010/01/04/r-memory-usage-statistics-variable/
dati prodotti da anonym
sql.df o data.table? –
Dopo aver svuotato le belle risposte di seguito, sono stato in grado di trovare: http://stackoverflow.com/questions/4322219/whats-the-fastest-way-to-merge-join-data-frames-in-r (anche se il la domanda non riguardava il df di grandi dimensioni, ma riguardo al salvataggio dei millisecondi, ha ottenuto risposte simili come di seguito). –