Tutti i miei nodi sono attivi e in esecuzione quando vediamo usando il comando jps
, ma ancora non riesco a connettermi al filesystem hdfs. Ogni volta che clicco su Browse the filesystem
sulla localhost Hadoop Namenode: 8020 pagina, l'errore che ottengo è Connection Refused
. Inoltre ho provato a formattare e riavviare il namenode, ma l'errore persiste. Qualcuno può aiutarmi a risolvere questo problema.Errore "Connessione rifiutata" per Namenode-HDFS (Problema Hadoop)
risposta
Controllare se tutti i servizi sono in esecuzione JobTracker, Jps, NameNode. DataNode, TaskTracker
eseguendo il comando jps
.
Provato ad eseguire iniziare uno per uno:
./bin/stop-all.sh
./bin/hadoop-daemon.sh start namenode
./bin/hadoop-daemon.sh start jobtracker
./bin/hadoop-daemon.sh start tasktracker
./bin/hadoop-daemon.sh start datanode
Se siete ancora ottenere l'errore, si ferma di nuovo e la pulizia del cartella di memorizzazione temporanea. I dettagli directory sono nel file di configurazione ./conf/core-site.xml
e la corsa,
./bin/stop-all.sh
rm -rf /tmp/hadoop*
./bin/hadoop namenode -format
controllare i registri nella cartella ./logs
.
tail -200 hadoop*jobtracker*.log
tail -200 hadoop*namenode*.log
tail -200 hadoop*datanode*.log
Spero che sia d'aiuto.
HDFS può utilizzare la porta 9000 con determinate distribuzioni/build.
Si prega di ricontrollare la porta del nodo del nome.
Questa era la mia correzione per un nuovo cluster Hadoop in esecuzione con Spark 2.0.2. –
Modificare il core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://hadoopvm:8020</value>
<final>true</final>
</property>
modifica l'indirizzo IP.
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.132.129:8020</value>
<final>true</final>
</property>
Grazie alla sua ha lavorato per me – nayab
Grazie Ha aiutato –