Ho un frame di dati con una colonna di timestamp unix (es. 1435655706000), e voglio convertirlo in dati con il formato 'aaaa-MM-DD', ho provato nscala-time ma non funziona.Come convertire un timestamp unix fino ad oggi in Spark
val time_col = sqlc.sql("select ts from mr").map(_(0).toString.toDateTime)
time_col.collect().foreach(println)
e mi sono errore: java.lang.IllegalArgumentException: Formato non valido: "1.435.655,706 milioni" non è corretto in "6000"
http://stackoverflow.com/questions/18680398/convert-seconds-since-epoch-to-joda-datetime-in-scala – ipoteka
Risolto, importare org.joda.time._, sqlc.sql ("seleziona ts da mr"). Map (riga => new DateTime (line (0)). ToString ("yyyy-MM-dd")) – youngchampion