HADOOP的HA搭建
进入到执行:/soft/hadoop-2.7.1/etc/hadoop_cluster$ gedit hdfs-site.xml
为东城等地区用户提供了全套网页设计制作服务,及东城网站建设行业解决方案。主营业务为网站制作、成都网站建设、东城网站设计,以传统方式定制建设网站,并提供域名空间备案等一条龙服务,秉承以专业、用心的态度为用户提供真诚的服务。我们深信只要达到每一位用户的要求,就会得到认可,从而选择与我们长期合作。这样,我们也可以走得更远!
[配置部分]
[hdfs-site.xml]
1.配置名称服务:dfs.nameservices
名称服务的逻辑名。
2.配置nameservice中每个namenode
dfs.ha.namenodes.[nameservice ID]
注意:目前的hadoop2.7.2最多只能配置2个namenode。
3.配置每个namede的rpc地址
4.配置每个namenode的webui地址
5.配置namenode的共享edit log目录
6.配置客户端容灾代理供应商类
供客户端用来检测那个是namenode是活页节点。
7.(可选的)配置HA防护方法名集合.
QJM防止脑裂发生,不存在两个active node。
可以配置sshfence或者shell脚本。
8.配置hdfs的文件系统
[core-site.xml]
9.配置JN的本地存放数据(edit log)的目录
2、把core-site.xml文件的客户机名改成如下再颁发给每个虚拟机:
3、然后回到hdfs-site.xml里面把
删掉。同样颁发给每个虚拟机
4、接下来启动jn进程即:hadoop-daemon.sh starat journalnode
(我是在s1、s7和s8上分别启动journalnode进程。我一共八台虚拟机)
5、将s1的hadoop目录下的dfs拷贝到s8中。即执行:scp -r dfs ubuntu@s8:/home/ubuntu/hadoop
6、在开启一个namenode节点的情况下,登录:ssh s8的虚拟机上执行hdfs namenode -bootstrapStandby
7、再停止namenode节点,然后 在s1虚拟机上执行:hdfs namenode -initializeSharedEdits
8、分别在s1和s8上启动namenode即:执行hadoop-daemno.sh start namenode
9、最后启动所有的数据节点:hadoop-daemons.sh start datanode (hadoop-daemons.sh是启动所有的节点)
管理ha过程
1、手动完成状态切换:
hdfs haadmin -transitionToActive nn1
hdfs haadmin -transitionToStandbby nn1
本文题目:HADOOP的HA搭建
路径分享:http://azwzsj.com/article/pejpdg.html