在hadoop集群中服役新节点

环境说明

192.168.100.101 node01
192.168.100.102 node02
192.168.100.103 node03
192.168.100.104 node04

四台Vmware Workstatuin中搭建的centos6.9主机,hadoop版本为2.6.0

前置准备说明

准备台新的节点node04,配置好ssh免密登录,JDK环境,防火墙配置,SELINUX关闭,将Hadoop文件拷贝到node04节点上

服役新数据节点

①创建dfs.hosts文件,添加节点(包含新服役的节点),并修改hdfs-site.xml

[root@node01 hadoop]# cat dfs.hosts
node01
node02
node03
node04
<property>
<name>dfs.hosts</name>
<value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/dfs.hosts</value>
</property>

②namenode刷新并更新resourceManager节点

hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes

③slaves文件新节点

[root@node01 hadoop]# cat slaves 
node01
node02
node03
node04

④新节点单独启动

sbin/hadoop-daemon.sh start datanode
sbin/yarn-daemon.sh start nodemanager

⑤负载均衡

sbin/start-balancer.sh
点赞
  1. wangzhenyu说道:
    Google Chrome Windows 10
    写的啥

发表评论

电子邮件地址不会被公开。必填项已用 * 标注