2014-12-09 4 views
5

Sto utilizzando spark-submit e ho provato a farlo nel file jar con .setExecutorEnv("spark.ui.port", "4050") nel contesto spark, ma ha comunque cercato di colpire 4040. Ho quindi provato a inserire un --conf spark.ui.port=4050 dopo spark-submit e prima di --class CLASSNAME, ma non lavoro sia, questa volta dicendo "Errore: opzione non riconosciuta '--conf'". Come faccio a evitare questo? L'errore reale che sto incontrando è che c'è un server spark attivo che altri stanno usando che impedisce a questo spark-submit di avviare il server jetty. Non sta colpendo altre porte, quindi sto cercando di forzarlo a farlo.Come cambio lo spark.ui.port?

+0

Quale versione di Spark stai usando? –

+0

Spark: 1.0.0, Hadoop: 2.3.0 – user592419

risposta

9

--conf spark.ui.port=4050 è una funzionalità Spark 1.1. Puoi impostarlo nei tuoi codici, ad esempio:

val conf = new SparkConf().setAppName(s"SimpleApp").set("spark.ui.port", "4050") 
val sc = new SparkContext(conf) 
+0

Cosa succede se si lanciano due applicazioni con lo stesso valore per "spark.ui.port"? Fallirà? – Rags

+0

No, la seconda app non riuscirà a collegarsi a 4050 e provare 4051 – zsxwing