Hadoop环境搭建过程中可能遇到的问题
jopen
9年前
1、集群启动的时候,从节点的datanode没有启动
问题原因:从节点的tmp/data下的配置文件中的clusterID与主节点的tmp/data下的配置文件中的clusterID不一致,导致集群启动时,hadoop会杀死从节点的datanode进程。
解决方案:
a) 将集群关闭;
b) 删除你在hadoop配置中设置的tmp下的data和name中的内容(每一个节点都要做这个操作)
c) 重新格式化一次hdfs
d) 重启集群,问题解决
2、集群启动时,jps显示所有的hadoop进程都已经存在,但是宿主机的浏览器打不开监控页面
问题原因:集群中的所有节点的防火墙没有被禁用,导致宿主机无法访问监控界面。
解决方案:
a) 将防火墙禁用(每一个节点都要做这个操作)
centos 7:
systemctl stop firewalld.service #停止
systemctl disable firewalld.service #禁用
之前的版本: service iptables stop #停止 chkconfig iptables off #禁用 b) 问题解决。