Sto provando a salvare un modello adattato in un file in Spark. Ho un cluster Spark che allena un modello RandomForest. Vorrei salvare e riutilizzare il modello montato su un'altra macchina. Ho letto alcuni post sul Web che consiglia di eseguire la serializzazione java. Sto facendo l'equivalente in Python ma non funziona. Qual è il trucco?Salva Apache Spark modello mllib in pitone
model = RandomForest.trainRegressor(trainingData, categoricalFeaturesInfo={},
numTrees=nb_tree,featureSubsetStrategy="auto",
impurity='variance', maxDepth=depth)
output = open('model.ml', 'wb')
pickle.dump(model,output)
sto ottenendo questo errore:
TypeError: can't pickle lock objects
Sto usando Apache 1.2.0 Spark.
Salve, sembra un modo corretto per salvare \ caricare modelli in Spark sta usando i metodi .save() e .load() per i modelli (almeno in Spark 1.3.0). Ma ho avuto problemi anche con questo approccio :(Descritto il mio problema qui [Qual è il modo giusto per salvare \ caricare i modelli in Spark \ PySpark] (http://stackoverflow.com/questions/29255145/che cosa-è-il- destra-way-to-save-load-modelli-in-spark-pyspark) – artemdevel