Come posso utilizzare i pacchetti R zoo o xts con set di dati molto grandi? (100 GB) So che ci sono alcuni pacchetti come bigrf, ff, bigmemory che possono gestire questo problema, ma devi usare il loro set limitato di comandi, non hanno le funzioni di zoo o xts e io no sapere come fare zoo o xts per usarli. Come posso usarlo?Come utilizzare zoo o xts con grandi dati?
Ho visto che ci sono anche alcune altre cose, legate ai database, come sqldf e hadoopstreaming, RHadoop, o qualche altro usato da Revolution R. Che cosa consigli ?, nessun altro?
Voglio solo aggreare serie, pulire ed eseguire alcune cointegrazioni e grafici. Non vorrei avere bisogno di codificare e implementare nuove funzioni per ogni comando di cui ho bisogno, usando ogni volta piccole parti di dati.
Aggiunto: Sono su Windows
Questa non è una domanda di finanza quantitativa. Sto inviando questo a Stack Overflow. – chrisaycock
@skan Puoi dare un'occhiata al pacchetto 'mmap' che è stato creato da Jeff Ryan (autore di xts) –
Vedi anche questo post http://r.789695.n4.nabble.com/xts-timeseries-as-shared -memory-objects-with-bigmemory-package-tp3385186p3385252.html –