Hadoop环境搭建过程中可能遇到的问题

jopen 9年前


1、集群启动的时候,从节点的datanode没有启动

问题原因:从节点的tmp/data下的配置文件中的clusterID与主节点的tmp/data下的配置文件中的clusterID不一致,导致集群启动时,hadoop会杀死从节点的datanode进程。

解决方案:

a) 将集群关闭;

b) 删除你在hadoop配置中设置的tmp下的data和name中的内容(每一个节点都要做这个操作)

c) 重新格式化一次hdfs

d) 重启集群,问题解决

2、集群启动时,jps显示所有的hadoop进程都已经存在,但是宿主机的浏览器打不开监控页面

问题原因:集群中的所有节点的防火墙没有被禁用,导致宿主机无法访问监控界面。

解决方案:

a) 将防火墙禁用(每一个节点都要做这个操作)

centos 7:

systemctl stop firewalld.service #停止

systemctl disable firewalld.service #禁用

 之前的版本:  service iptables stop #停止 chkconfig iptables off #禁用 b)  问题解决。