Come si organizza il flusso di lavoro di sviluppo Spark?Flusso di lavoro dell'app Apache Spark
Il mio modo:
- servizio Hadoop/filato locale.
- Servizio scintilla locale.
- Intellij su uno schermo
- Terminal con l'esecuzione della console SBT
- Dopo essere passato ad Spark codice app, posso passare al terminale ed eseguire "pacchetto" per compilare al vaso e "submitSpark", che è compito STB che corre a scintilla presentare
- Attendere eccezione nella console SBT :)
ho anche provato a lavorare con scintilla scocca:
- guscio Run e il carico previ app scritta in modo esplicito.
- Write linea in guscio
- valutarla
- Se va bene copia a IDE
- Dopo pochi 2,3,4, incollare il codice a IDE, compilare scintilla app e ricominciare
Is c'è un modo per sviluppare le applicazioni Spark più velocemente?
Spark Notebook è fantastico :) – zie1ony