hadoop 之分布式安装
1、防火墙;
1) 重启后生效
开启: chkconfig iptables on
关闭: chkconfig iptables off
2) 即时生效,重启后失效
开启: service iptables start
关闭: service iptables stop
3)查看防火墙状态:service iptables status
2、HDFS 启动
sbin/hadoop-daemon.sh start/stop namenode
sbin/hadoop-daemon.sh start/stop secondarynamenode
sbin/hadoop-daemon.sh start/stop datanode
需要在sbin目录下操作
yarn jar /opt/cloud/hadoop-2.6.0-cdh5.4.2/ws/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.4.2.jar wordcount /wordcount /output
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
./yarn-daemon.sh stop nodemanager
./yarn-daeon.sh stop resourcemanager
如何克隆虚拟机:http://www.centoscn.com/CentOS/2015/0208/4656.html
CentOS Linux 克隆完后,连接问题 http://my.oschina.net/u/2356966/blog/469248
一定要保证,集群中的所有节点的配置都是一样的,
因此,我是在同一个节点上配置,然后同步到其他的机器上。
临时修改用户名:hostname 新名
永久性修改:vim /etc/sysconfig/network
ssh这是个命令,可以放到shell脚本,那么这样就能够实现自动化的连接到其他的机器,同时,执行相应的命令。
设置步骤
生成自己的公私钥对:ssh-keygen -t rsa
将自己的公钥复制到对方的机器下,并授权;ssh-copy-id root@master
别忘了给自己也设置下
使用ssh直接登录,不需要添写密码
ssh-keygen -t rsa 生成一次
ssh-copy-id root@master 多次授权给不同的机器
同步;
scp -r hadoop-2.6.0-cdh5.4.2/ root@slave01:/opt/cloud/
scp -r jdk1.7.0_45/ root@slave01:/opt/cloud/
scp -r /etc/profile root@slave01:/etc/profile
master节点格式化:hdfs namenode -format
datanode节点启动,需要删除dfs中的dn文件