Utilizzo il cluster di scintille databricks (AWS) e il test sul mio esperimento scala. Ho qualche problema quando si allena su un dato da 10 GB con l'algoritmo LogisticRegressionWithLBFGS. Il blocco di codice dove ho incontrato la questione è la seguente:spark executor lost failure
import org.apache.spark.mllib.classification.LogisticRegressionWithLBFGS
val algorithm = new LogisticRegressionWithLBFGS()
algorithm.run(training_set)
In primo luogo ho ottenuto un esecutore molto perso fallimento e java di problemi di memoria, poi ho ripartizionato mia training_set con più partizioni e il fuori problemi di memoria sono andato, ma ancora ottenere l'esecutore ha perso il fallimento.
Il mio cluster ha 72 core e 500 GB di ram in totale. Qualcuno può dare qualche idea su questo?
Avete trovato qualche soluzione? Sto anche affrontando lo stesso problema .. –
Sì, il mio problema è che il mio vettore di funzionalità è molto grande e scarso, mentre sto usando il vettore denso. Se scelgo di utilizzare il formato vettoriale sparse, non affronto problemi e la scintilla forma il modello a una velocità veramente elevata. – peng
Grazie per l'aggiornamento .. –