三、zookeeper--实现NN和RM的HA-创新互联
一、hdfs namenode HA
1、概述
在hadoop1.0的时候,hdfs集群中namenode存在单点故障的问题,当namenode不可用的时候,就会导致整个hdfs集群服务不可用。另外如果需要临时对namenode进行设计或者其他操作时,停掉namenode之后,hdfs集群也无法使用了。
通过HA的方式,可以一定程度上解决单点故障问题。
2、namenode HA工作要点
1)元数据管理方式需要改变:
内存中各自保存一份元数据;
Edits日志只有Active状态的namenode节点可以做写操作;
两个namenode都可以读取edits;
共享的edits放在一个共享存储中管理(qjournal和NFS两个主流实现);
2)需要一个状态管理功能模块
hadoop实现了一个zkfailover,常驻在每一个namenode所在的节点,每一个zkfailover负责监控自己所在namenode节点,利用zk进行状态标识,当需要进行状态切换时,由zkfailover来负责切换,切换时需要防止brain split现象的发生。
3)必须保证两个NameNode之间能够ssh无密码登录。用于后面的隔离。通过ssh方式到另外的namenode节点上,将namenode进程彻底杀死。防止脑裂。
4)隔离(Fence),即同一时刻仅仅有一个NameNode对外提供服务
3、namenode HA自动故障转移工作机制
namenode HA自动故障转移除了要两个namenode之外,还需要增加两个组件:zookeeper集群服务,ZKFailoverController(ZKFC)。
(1)ZKFC
它是zookeeper的一个客户端,同时负责监控namenode的状态。每个namenode上都运行一个ZKFC进程。
1)健康监测:
ZKFC使用一个健康检查命令定期地ping与之在相同主机的NameNode,只要该NameNode及时地回复健康状态,ZKFC认为该节点是健康的。如果该节点崩溃,冻结或进入不健康状态,健康监测器标识该节点为非健康的。
2)ZooKeeper会话管理:
当本地NameNode是健康的,ZKFC保持一个在ZooKeeper中打开的会话。如果本地NameNode处于active状态,ZKFC也保持一个特殊的znode锁,该锁使用了ZooKeeper对短暂节点(也就是临时节点)的支持,如果会话终止,锁节点将自动删除。
ZKFC会在zookeeper上创建一个 /hadoop-ha/namenodeHA集群名称/ 这样一个节点,
该节点上有两个子节点:
ActiveBreadCrumb:
持久节点,节点的值中记录了 HA集群名称 active节点别名 active节点地址
主要用于其他想访问namenode服务的client用于获取active状态的namenode地址,所以必须得是持久节点。
ActiveStandbyElectorLock:
临时节点,节点的值中记录了 HA集群名称 active节点别名 active节点地址。
起到互斥锁的作用,只有获取到该节点的使用权,才能修改上面ActiveBreadCrumb节点的值。
因为是临时节点,所以当active namenode和zk保持连接,该节点就会一直存在,而standby的namenode也是和zk保持连接,但是发现该临时节点已存在,就明白已经有人占用了,所以它不会做任何事。当上面的active namenode发生问题,不正常了,ZKFC就会断开和zk的连接,那么临时节点就会消失。此时standby namenode就会重新创建该临时节点,相当于获得了锁,可以修改ActiveBreadCrumb的值。此时它自己也就顺理成章变成新的active namenode。
3)基于ZooKeeper的选择:
如果本地NameNode是健康的,且ZKFC发现没有其它的节点当前持有znode锁,它将为自己获取该锁。如果成功,则它已经赢得了选择,并负责运行故障转移进程以使它的本地NameNode为active。
4、HA配置
(1)环境规划
主机 | 角色 |
---|---|
bigdata121/192.168.50.121 | namenode,journalnode,datanode,zk |
bigdata122/192.168.50.122 | namenode,journalnode,zk |
bigdata123/192.168.50.123 | zk |
软件版本 | hadoop2.8.4,zookeeper3.4.10,centos7.2 |
jdk,zookeeper部署不重复讲了,看之前的文章吧
基础环境配置:
每个机器添加主机名解析/etc/hosts
每台主机对自己,以及对另外两台主机都要配置ssh免秘钥登录
关闭防火墙以及selinux
(2)部署
hadoop的完整部署可以看之前的文章,这里着重讲namenode HA的配置。
修改配置文件:
core-site.xml
fs.defaultFS
hdfs://mycluster
hadoop.tmp.dir
/opt/modules/HA/hadoop-2.8.4/data/ha_data
ha.zookeeper.quorum
bigdata121:2181,bigdata122:2181,bigdata123:2181
hdfs-site.xml
dfs.nameservices
mycluster
dfs.ha.namenodes.mycluster
nn1,nn2
dfs.namenode.rpc-address.mycluster.nn1
bigdata121:9000
dfs.namenode.rpc-address.mycluster.nn2
bigdata122:9000
dfs.namenode.http-address.mycluster.nn1
bigdata121:50070
dfs.namenode.http-address.mycluster.nn2
bigdata122:50070
dfs.namenode.shared.edits.dir
qjournal://bigdata121:8485;bigdata122:8485/mycluster
dfs.ha.fencing.methods
sshfence
dfs.ha.fencing.ssh.private-key-files
/root/.ssh/id_rsa
dfs.journalnode.edits.dir
/opt/modules/HA/hadoop-2.8.4/data/jn
dfs.permissions.enable
false
dfs.client.failover.proxy.provider.mycluster
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
dfs.ha.automatic-failover.enabled
true
配置文件同步到各个节点中。使用scp或者rsync随意吧。
(3)启动集群
第一次启动时:
cd /opt/modules/HA/hadoop-2.8.4
1)各个journalnode节点上启动journalnode服务
sbin/hadoop-daemon.sh start journalnode
2)nn1上格式化namenode,并启动
bin/hdfs namenode -format
sbin/hadoop-daemon.sh start namenode
3)nn2上通过启动的journalnode从nn1上同步namenode的数据到本地namenode
bin/hdfs namenode -bootstrapStandby
4)启动nn2
sbin/hadoop-daemon.sh start namenode
5)nn1上启动所有datanode
sbin/hadoop-daemons.sh start datanode
6)两台namenode上查看namenode状态
bin/hdfs haadmin -getServiceState nn1
bin/hdfs haadmin -getServiceState nn2
正常情况一个是active,一个是standby
7)手动转换成active和standby
bin/hdfs haadmin -transitionToActive namenode名称
bin/hdfs haadmin -transitionToStandby namenode名称
注意,如果需要手动切换,那么需要将hdfs-site.xml中的自动切换关掉。否则报错。
或者使用 --forceactive 进行强制转换。
启动完成后,可以手动将active的namenode关掉,可以看到刚刚standby的namenode会自动转为 active。而刚才关掉的namenode重新上线的话,就会变为standby。
第二次启动:
直接start-dfs.sh即可
(4)为什么没有SNN?
当我们启动完整个namenode的HA集群之后,我们发现并没有SNN的身影,天真的我以为以为还需要手动启动,就手动启动一发了,结果报错了。
查看SNN的启动日志,可以发现有这么一个报异常信息
org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode: Failed to start secondary namenode
java.io.IOException: Cannot use SecondaryNameNode in an HA cluster. The Standby Namenode will perform checkpointing.
at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.(SecondaryNameNode.java:189)
at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:690)
意思很明显了,就是说SNN的职责由standby的namenode来完成了,HA状态下不需要SNN的存在了。这样其实也很合理,可以说是充分利用了standby的namenode,免得它闲在那里。
二、yarn resourceManager HA
1、工作机制
其实和上面的namenode的ha类似,也是借助ZKFC进行监控RM。
会在 zk上创建一个 /yarn-leader-election/yarn集群名称 的节点,
下面有两个子节点:ActiveBreadCrumb, ActiveStandbyElectorLock
作用类似,不重复讲。工作机制基本类似的
2、HA配置
(1)规划
主机 | 角色 |
---|---|
bigdata121 | zk, rm |
bigdata122 | zk, rm |
bigdata123 | zk |
(2)配置文件
yarn-site.xml
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.log-aggregation-enable
true
yarn.log-aggregation.retain-seconds
604800
yarn.resourcemanager.ha.enabled
true
yarn.resourcemanager.cluster-id
cluster-yarn1
yarn.resourcemanager.ha.rm-ids
rm1,rm2
yarn.resourcemanager.hostname.rm1
bigdata121
yarn.resourcemanager.hostname.rm2
bigdata122
yarn.resourcemanager.zk-address
bigdata121:2181,bigdata122:2181,bigdata123:2181
yarn.resourcemanager.recovery.enabled
true
yarn.resourcemanager.store.class
org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
配置文件同步到其他节点。
(3)启动集群
bigdata121:启动yarn
sbin/start-yarn.sh
bigdata122:启动rm
sbin/yarn-daemon.sh start resourcemanager
查看服务状态:
bin/yarn rmadmin -getServiceState rm1
bin/yarn rmadmin -getServiceState rm2
测试方式和namenode类似,这里不重复
另外有需要云服务器可以了解下创新互联cdcxhl.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。
网站名称:三、zookeeper--实现NN和RM的HA-创新互联
当前网址:http://azwzsj.com/article/ccogeg.html