2013-03-26 8 views
5

Tutti i miei nodi sono attivi e in esecuzione quando vediamo usando il comando jps, ma ancora non riesco a connettermi al filesystem hdfs. Ogni volta che clicco su Browse the filesystem sulla localhost Hadoop Namenode: 8020 pagina, l'errore che ottengo è Connection Refused. Inoltre ho provato a formattare e riavviare il namenode, ma l'errore persiste. Qualcuno può aiutarmi a risolvere questo problema.Errore "Connessione rifiutata" per Namenode-HDFS (Problema Hadoop)

risposta

6

Controllare se tutti i servizi sono in esecuzione JobTracker, Jps, NameNode. DataNode, TaskTracker eseguendo il comando jps.

Provato ad eseguire iniziare uno per uno:

./bin/stop-all.sh 
./bin/hadoop-daemon.sh start namenode 
./bin/hadoop-daemon.sh start jobtracker 
./bin/hadoop-daemon.sh start tasktracker 
./bin/hadoop-daemon.sh start datanode 

Se siete ancora ottenere l'errore, si ferma di nuovo e la pulizia del cartella di memorizzazione temporanea. I dettagli directory sono nel file di configurazione ./conf/core-site.xml e la corsa,

./bin/stop-all.sh 
rm -rf /tmp/hadoop* 
./bin/hadoop namenode -format 

controllare i registri nella cartella ./logs.

tail -200 hadoop*jobtracker*.log 
tail -200 hadoop*namenode*.log 
tail -200 hadoop*datanode*.log 

Spero che sia d'aiuto.

+0

Grazie alla sua ha lavorato per me – nayab

+0

Grazie Ha aiutato –

2

HDFS può utilizzare la porta 9000 con determinate distribuzioni/build.

Si prega di ricontrollare la porta del nodo del nome.

+0

Questa era la mia correzione per un nuovo cluster Hadoop in esecuzione con Spark 2.0.2. –

0

Modificare il core-site.xml

<property> 
    <name>fs.default.name</name> 
    <value>hdfs://hadoopvm:8020</value> 
    <final>true</final> 
    </property> 

modifica l'indirizzo IP.

<property> 
<name>fs.default.name</name> 
<value>hdfs://192.168.132.129:8020</value> 
<final>true</final> 
</property>