Sto usando grappolo standalone sul mio Windows locali e cercando di caricare dati da uno dei nostri server utilizzando seguente codice -Non in grado di connettersi a postgres usando JDBC in guscio pyspark
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
df = sqlContext.load(source="jdbc", url="jdbc:postgresql://host/dbname", dbtable="schema.tablename")
Ho impostato lo SPARK_CLASSPATH come -
os.environ['SPARK_CLASSPATH'] = "C:\Users\ACERNEW3\Desktop\Spark\spark-1.3.0-bin-hadoop2.4\postgresql-9.2-1002.jdbc3.jar"
Durante l'esecuzione di sqlContext.load, getta l'errore di nota "Nessun driver adatto trovato per JDBC: PostgreSQL". Ho provato a cercare sul web, ma non sono riuscito a trovare una soluzione.
Il suo "Nessun driver adatto trovato per jdbc: postgresql" solo .. domanda aggiornata. –
Bene in questo caso il file jar richiesto con il driver non è disponibile. Il file jar richiesto è –
, ma in qualche modo SPARK non è in grado di riconoscerlo. C'è qualche problema riguardante SPARK_CLASSPATH. Non sono sicuro su come impostare SPARK_CLASSPATH. –