2016-06-16 43 views
6

Sono un principiante della scintilla. Costruisco un ambiente uso "linux + idea + sbt", quando provo l'avvio rapido di Spark, ottengo il problema:idea sbt java.lang.NoClassDefFoundError: org/apache/spark/SparkConf

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf 
    at test$.main(test.scala:11) 
    at test.main(test.scala) 
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
    at java.lang.reflect.Method.invoke(Method.java:498) 
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144) 
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkConf 
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424) 
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357) 
    ... 7 more 

le versioni di loro nel mio disco:

sbt = 0.13.11 
jdk = 1.8 
scala = 2.10 
idea = 2016 

la mia struttura di directory:

test/ 
    idea/ 
    out/ 
    project/ 
    build.properties  
    plugins.sbt 
    src/ 
    main/ 
     java/ 
     resources/ 
     scala/ 
     scala-2.10/ 
     test.scala 
    target/ 
    assembly.sbt 
    build.sbt 

in build.propert i:

sbt.version = 0.13.8 

In plugins.sbt:

logLevel := Level.Warn 

addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0") 

addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.11.2") 

In build.sbt:

import sbt._ 
import Keys._ 
import sbtassembly.Plugin._ 
import AssemblyKeys._ 

name := "test" 

version := "1.0" 

scalaVersion := "2.10.4" 

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" % "provided" 

In assembly.sbt:

import AssemblyKeys._ // put this at the top of the file 

assemblySettings 

In test.scala:

import org.apache.spark.SparkContext 
import org.apache.spark.SparkContext._ 
import org.apache.spark.SparkConf 

object test { 
    def main(args: Array[String]) { 
    val logFile = "/opt/spark-1.6.1-bin-hadoop2.6/README.md" // Should be some file on your system 
    val conf = new SparkConf().setAppName("Test Application") 
    val sc = new SparkContext(conf) 
    val logData = sc.textFile(logFile, 2).cache() 
    val numAs = logData.filter(line => line.contains("a")).count() 
    val numBs = logData.filter(line => line.contains("b")).count() 
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs)) 
    } 
} 

Come posso risolvere questo problema.

risposta

7

Le dipendenze con lo scope "provided" sono disponibili solo durante la compilazione e il test e non sono disponibili in fase di esecuzione o per il confezionamento. Quindi, invece di creare un oggetto test con un main, dovresti renderlo una vera e propria suite di test collocata in src/test/scala (Se non hai familiarità con i test unitari in Scala, ti suggerisco di usare ScalaTest, ad esempio. una dipendenza su esso nel build.sbt: libraryDependencies += "org.scalatest" %% "scalatest" % "2.2.4" % Test e quindi andare per questo quick start tutorial per implementare una specifica semplice).


Un'altra opzione, che è abbastanza hacky, a mio parere (ma fa il trucco comunque), comporta la rimozione provided portata dal spark-core dipendenza in alcune configurazioni ed è descritto nella risposta accettato di this question.

+0

Ho questo problema per una classe Scala 'src/main/scala/app/Main.scala'. Tutto sembra a posto, l'applicazione viene eseguita, ma non posso istanziare 'ScparkConf()' perché sto ottenendo anche un 'NoClassDefFoundError'. Sto seguendo [questo tutorial] (https://hortonworks.com/tutorial/setting-up-a-spark-development-environment-with-scala/) che usa anche 'provided' nella gestione delle dipendenze. Quello che non capisco è che per me sembra che questo dovrebbe funzionare in questo modo. Quindi dovrei rimuovere 'provided' o posso farlo funzionare anche con questo flag set? – displayname

3

Ho avuto lo stesso problema questa mattina con l'errore fornito. Ho rimosso "fornito" ed eseguito sbt clean, reload, compile, package, run. Eseguo anche test utilizzando spark-submit dalla riga di comando. Ma penso che "fornito", l'overhead in più sul codice, jar è di meno.