Esiste un modo per scrivere ogni riga del mio datagramma spark
come nuovo elemento in una tabella dynamoDB
? (In pySpark
)scrive le righe del dataframe spark come elementi nella tabella dynamoDB
Ho usato questo codice con boto3
biblioteca, ma mi chiedo se c'è un altro modo, evitando i passaggi e le for loop
pandas
:
sparkDF_dict = sparkDF.toPandas().to_dict('records')
for item in sparkDF_dict :
table.put_item(Item = item)
C'è stata una soluzione a questo problema? Quindi poca documentazione su questa roba. Sembra che sia possibile inviare l'output EMR a DynamoDB. – Gopala