Esiste la possibilità di eseguire il cluster autonomo Spark su una sola macchina (che è sostanzialmente diversa dallo sviluppo di processi localmente (ad esempio, local[*]
) ?.Spark - Come eseguire localmente un cluster autonomo
Finora sto eseguendo 2 VM diverse per creare un cluster, e se potessi eseguire un cluster autonomo sullo stesso computer, avendo per esempio tre JVM diverse in esecuzione?
Potrebbe piacere avere più indirizzi di loopback?
Grazie, ma cosa succede se ho bisogno di 2 o più lavoratori che lavorano in parallelo? Potrebbe essere possibile? – luke
@luke è possibile eseguire più worker utilizzando il comando launch worker in diverse schede della shell – banjara
Grazie, farò un tentativo! :) – luke