Sto cercando di trovare la soluzione migliore per convertire un intero dataframe Spark in una raccolta scala mappa. E 'meglio illustrato come segue:Conversione di un dataframe Spark in una collezione di mappe Scala
per andare da questo (negli esempi Spark):
val df = sqlContext.read.json("examples/src/main/resources/people.json")
df.show
+----+-------+
| age| name|
+----+-------+
|null|Michael|
| 30| Andy|
| 19| Justin|
+----+-------+
Per una collezione Scala (Mappa di Maps) ha rappresentato in questo modo:
val people = Map(
Map("age" -> null, "name" -> "Michael"),
Map("age" -> 30, "name" -> "Andy"),
Map("age" -> 19, "name" -> "Justin")
)
Che ha funzionato. In realtà ho misspoke. Avevo bisogno solo di una raccolta di Maps e la prima riga mi dava esattamente ciò di cui avevo bisogno. Grazie –
Dolce, accetta la mia risposta allora? '' ;-) –