Sto cercando di evitare la soluzione "while (true)" quando aspetto che il lavoro di apache spark sia terminato, ma senza successo. Ho un'applicazione spark che suppone di elaborare alcuni dati e di me
Sto tentando di inviare un JAR con il lavoro Spark nel cluster YARN dal codice Java. Sto usando SparkLauncher a presentare esempio SparkPi: Process spark = new SparkLauncher()
.setAppResource("C: