Sto iniziando a conoscere i big data e Apache Spark e ho un dubbio.Posso eseguire un database di serie temporali (TSDB) su Apache Spark?
In futuro avrò bisogno di raccogliere dati dall'IoT e questi dati verranno da me come time series data. Stavo leggendo su database di serie temporali (TSDB) e ho trovato alcune opzioni open source come Atlas, KairosDB, OpenTSDB, ecc.
In realtà ho bisogno di Apache Spark, quindi voglio sapere: posso usare una serie storica Database su Apache Spark? Ha senso? Per favore, ricorda che sono molto nuovo ai concetti di big data, Apache Spark e tutte le questioni che ho parlato in questa domanda.
Se riesco a eseguire TSDB su Spark, come posso ottenerlo?
si dovrebbe essere in grado di, dare un'occhiata a https://spark.apache.org/docs/latest/api/ Scala/inde x.html # org.apache.spark.sql.sources.package e un'implementazione come https://github.com/databricks/spark-csv/blob/master/src/main/scala/com/databricks/spark/ csv/CsvRelation.scala - Non ho trovato alcuna API Java OpenTSDB, quindi potresti dover scavare. – Reactormonk
Questo è un argomento interessante, ma cosa intendi per 'TSDB su Spark'? Quale parte dell'elaborazione dei dati del sensore è necessario eseguire nel database e quale parte in Spark? –
Ho bisogno di memorizzare tutte le serie temporali in un buon database e in seguito ho bisogno che Spark usi gli algoritmi di Machine Learning su questi dati. – Paladini