Sto tentando di includere automaticamente i jar nel mio classpath PySpark. In questo momento posso digitare il seguente comando e funziona:Automaticamente inclusi i vasi nel classpath PySpark
$ pyspark --jars /path/to/my.jar
Mi piacerebbe avere quel vaso incluso di default in modo che posso solo digitare pyspark
e anche utilizzarlo in IPython Notebook.
Ho letto che posso includere l'argomento impostando PYSPARK_SUBMIT_ARGS in ENV:
export PYSPARK_SUBMIT_ARGS="--jars /path/to/my.jar"
Purtroppo quanto sopra non funziona. Ottengo l'errore di runtime Failed to load class for data source
.
Running Spark 1.3.1.
Modifica
mia soluzione quando si utilizza IPython Notebook è la seguente:
$ IPYTHON_OPTS="notebook" pyspark --jars /path/to/my.jar
Viene visualizzato un errore: 'Py4JJavaError: si è verificato un errore durante la chiamata di o28.load. : java.sql.SQLException: nessun driver adatto \t a java.sql.DriverManager.getDriver (DriverManager.java:315) ' – FullStack
@FullStack anche a me, hai trovato una soluzione? – thebeancounter