2015-06-22 14 views

risposta

5

Si potrebbe utilizzare Java SparkContext oggetto attraverso il gateway Py4J RPC:

>>> sc._jsc.sc().applicationId() 
u'application_1433865536131_34483' 

prega di notare che sc._jsc è variabile interna e non la parte di API pubblica - quindi non c'è (piuttosto piccola) probabilità che possa essere cambiato in futuro.

Invierò una richiesta di pull per aggiungere una chiamata API pubblica per questo.

+0

per favore aggiungi un link alla tua richiesta di pull qui in modo che possiamo votare per questo. – sds

+1

https://issues.apache.org/jira/browse/SPARK-8528 https://github.com/apache/spark/pull/6936 – vvladymyrov

+0

Spark team accettato dal PR - quindi la proprietà sc.applicationID sarà disponibile in Spark 1.5.0 release – vvladymyrov

1

In Spark 1.6 (probabilmente 1,5 secondo il @wladymyrov nel commentare le altre risposte)

In [1]: sc.applicationId 
Out[1]: u'local-1455827907865' 
+0

Confermo che 'sc.applicationId' è disponibile in Spark 1.5.2. –