Sto cercando di salvare un set di dati nel database Cassandra utilizzando scintilla Scala, ma io sono sempre un'eccezione durante l'esecuzione di un codice: link utilizzato: http://rustyrazorblade.com/2015/01/introduction-to-spark-cassandra/saveTocassandra non riusciva a trovare valore implicito per il parametro RWF
error:
could not find implicit value for parameter rwf: com.datastax.spark.connector.writer.RowWriterFctory[FoodToUserIndex]
food_index.saveToCassandra("tutorial", "food_to_user_index")
^
.scala
def main(args: Array[String]): Unit = {
val conf = new SparkConf(true)
.set("spark.cassandra.connection.host", "localhost")
.set("spark.executor.memory", "1g")
.set("spark.cassandra.connection.native.port", "9042")
val sc = new SparkContext(conf)
case class FoodToUserIndex(food: String, user: String)
val user_table = sc.cassandraTable[CassandraRow]("tutorial", "user").select("favorite_food","name")
val food_index = user_table.map(r => new FoodToUserIndex(r.getString("favorite_food"), r.getString("name")))
food_index.saveToCassandra("tutorial", "food_to_user_index")}
build.sbt
name := "intro_to_spark"
version := "1.0"
scalaVersion := "2.11.2"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.2.0"
libraryDependencies += "com.datastax.spark" %% "spark-cassandra-connector" % "1.2.0-rc3"
se cambia la versione di scala e il connettore cassandra a 2.10, 1.1.0 funziona. ma ho bisogno di uso Scala 2.11:
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.2.0"
libraryDependencies += "com.datastax.spark" %% "spark-cassandra-connector" % "1.1.0" withSources() withJavadoc()
Wow ........... Solo wow ....... questa domanda sembra il candidato vincente per "La domanda più senza risposta su SO" [Chiedi] –
@nass: Il link che hai condiviso dà un 403. – LittlePanda
@LittlePanda http://rustyrazorblade.com/2015/01/introduction-to-spark-cassandra/ – nass