C'è un modo per ottenere l'output dai lavori di Dataproc Spark inviati al log di Google Cloud? As explained in the Dataproc docs l'output dal driver di lavoro (il master per un lavoro Spark) è disponibile in Dataproc-> Jobs nella console. Ci sono due motivi per cui vorrei avere i log anche nel Cloud Logging:Output da lavoro Dataproc Spark in Google Cloud Logging
- Mi piacerebbe vedere i registri dagli esecutori. Spesso il master log dice "executor lost" senza ulteriori dettagli, e sarebbe molto utile avere qualche informazione in più su cosa sta facendo l'executor.
- cloud registrazione è bella filtraggio e la ricerca
Attualmente l'unica uscita da Dataproc che appare nella registrazione Cloud è vuoto Log da filo-filo-nodemanager- * e il contenitore _ *. Stderr. L'output dal mio codice applicazione è mostrato in Dataproc-> Jobs ma non in Cloud Logging, ed è solo l'output del master Spark, non degli executors.
Devo dire anche condividere che abbiamo (Cloud squadra Dataproc) ha intenzione di rilasciare la funzione di tubo di uscita del driver di registrazione cloud in futuro 1-2 mesi. – James
Eventuali aggiornamenti su come ottenere le informazioni di registro dagli executors? Ho le istruzioni 'print (..)' nei miei esecutori di pyspark e non riesco a vedere il loro output da nessuna parte. Riesco a vedere l'output 'print' dal master, ma qualsiasi output dalla mia funzione' map' sembra essere perso. – sthomps