Hadoop伪分布式安装-创新互联

前言:

创新互联建站是一家集成都网站设计、成都做网站、网站页面设计、网站优化SEO优化为一体的专业网站制作公司,已为成都等多地近百家企业提供网站建设服务。追求良好的浏览体验,以探求精品塑造与理念升华,设计最适合用户的网站页面。 合作只是第一步,服务才是根本,我们始终坚持讲诚信,负责任的原则,为您进行细心、贴心、认真的服务,与众多客户在蓬勃发展的市场环境中,互促共生。

hadoop:存储和处理平台

hdfs:集群,NN,SNN,DN //SNN:将HDFS的日志和映像进行合并操作

mapreduce: 集群,有中心node,jobTracker/Task tracker,

jT:集群资源管理

TT:任务,map,reduce

hadoop 2.0

YARN:集群资源管理,分割

MapReduce:数据处理

RN,NM,AM //RN:资源节点,NM:节点管理,AM:资源代理

container:mr任务

Tez:execution engine

MR:batch

能够对NN节点做HA,YARN也可以高可用了

一、2.0工作模型

==================================================

A    【NM/Container A /APP M(B)】

 \ /

【RM】 --           【NM/Container B /APP M(A)】

 / \

B      【NM/Container A&A /】

client-->RM--->node1/node2/node n...

Resouce Manager: RM是独立的

    node上运行的有[node manager+App Master+ Container] //NM+AM

Node manager:NM,运行在各node上,周期向RM报告node信息

clinet请求作业:node上的Application master决定要启动几个mapper 几个 reducer

    mapper和reducer 称为 Container //作业都在容器内运行。

    Application master只有一个,且同一个任务的APP M只在一个节点上,但是Container会分别运行在多个节点上,并周期向APP M报告其处理状态

    APP M向RM报告任务运行状况,在任务执行完毕后,RM会把APP M关闭

        某一个任务故障后,由App M进行管理,而不是RM管理

RM是全局的,NM在每一个节点上是唯一的,一个程序的AM只有一个,但是contianer需要在多个node上

Hadoop 1.0 和 2.0

1.0 2.0

================ =================

/MR/Pig/Hive|

pig/Hive/Others [Tez ]RT/Service(HBase)

[MapReduce ] [YARN ]

[HDFS ] [HDFS2 ]

在Hadoop v1的时候:

Mapreduce是:

1.开发API

2.运行框架

3.运行环境

二、Hadoop的安装

1.单机模型:测试使用

2.伪分布式模型:运行于单机

3.分布式模型:集群模型

Hadoop:基于java语言,需要依赖于jvm

hadoop-2.6.2:jdk 1.6+

hadoop-2.7 jdk 1.7+

1.环境

vim /etc/profile.d/java.sh

JAVA_HOME=/usr

yum install java-1.8.0-openjdk-devel.x86_64

每一个java程序在运行的时候,都会启动一个jvm,需要配置其堆内存。

新生代,老年代,持久代 //垃圾收集器

slaves:

一个DN;data node,对于yarn来说是node manager

tar xvf hadoop-2.6.2.tar.gz -C /bdapps/

cd /bdapps/

ln -sv hadoop-2.6.2/ hadoop

cd hadoop

vim /etc/profile.d/hadoop.sh

export HADOOP_PREFIX=/bdapps/hadoop export PATH=$PATH:${HADOOP_PREFIX}/bin:${HADOOP_PREFIX}/sbin export HADOOP_YARN_HOME=${HADOOP_PREFIX} export HADOOP_MAPPERD_HOME=${HADOOP_PREFIX} export HADOOP_COMMON_HOME=${HADOOP_PREFIX} export HADOOP_HDFS_HOME=${HADOOP_PREFIX}

. /etc/profile.d/hadoop.sh

2.创建运行Hadoop进程的用户和相关目

[root@node2 hadoop]# groupadd hadoop [root@node2 hadoop]# useradd -g hadoop yarn [root@node2 hadoop]# useradd -g hadoop hdfs [root@node2 hadoop]# useradd -g hadoop mapred 创建数据和日志目录 [root@node2 hadoop]# mkdir -pv /data/hadoop/hdfs/{nn,snn,dn} [root@node2 hadoop]# chown -R hdfs:hadoop /data/hadoop/hdfs/ [root@node2 hadoop]# cd /bdapps/hadoop [root@node2 hadoop]# mkdir logs [root@node2 hadoop]# chmod g+w logs [root@node2 hadoop]# chown -R yarn:hadoop ./*

3.配置hadoop

core-site.xml包含了NameNode主机地址以及监听RPC端口信息,对于伪分布式模型的安装来说,其主机地址为localhost,NameNode默认使用的RPC端口为8020

vim etc/hadoop/core-site.xml

             fs.defaultFS         hdfs://localhost:8020         true     

配置hdfs的相关属性:例如复制因子(数据块的副本)、NN和DN用于存储数据的目录等。数据块的副本对于伪分布式的Hadoop应该为1,

而NN和DN用于存储的数据的目录为前面的步骤中专门为其创建的路径。

[root@node2 hadoop]# vim etc/hadoop/hdfs-site.xml

               dfs.replication  //dfs的副本数量         1              dfs.namenode.name.dir         file:///data/hadoop/hdfs/nn              dfs.datanode.data.dir         file:///data/hadoop/hdfs/dn                   fs.checkpoint.dir         file:///data/hadoop/hdfs/snn                   fs.checkpoint.edits.dir         file:///data/hadoop/hdfs/snn     

配置MapReduce framework,此应该指定使用yarn,另外的可用值还有local和classic

[root@node2 hadoop]# cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

[root@node2 hadoop]# vim etc/hadoop/mapred-site.xml

             mapreduce.framework.name         yarn     

配置YARN进程及YARN相关属性,首先执行ResourceManager守护进程的主机和监听的端口。

对于伪分布式模型来讲,其主机为localhost,默认的端口为8032;其次指定ResourceManager使用的scheduler,以及NodeManager的辅助任务。

[root@node2 hadoop]# vim etc/hadoop/yarn-site.xml

             yarn.resourcemanager.address         localhost:8032                   yarn.resourcemanager.scheduler.address         localhost:8030                   yarn.resourcemanager.resource-tracker.address         localhost:8031                   yarn.resourcemanager.admin.address         localhost:8033                   yarn.resourcemanager.webapp.address         localhost:8088                   yarn.nodemanager.aux-services         mapreduce_shuffle                   yarn.nodemanager.auxservices.mapreduce_shuffle.class         org.apache.hadoop.mapred.ShuffleHandler                   yarn.resourcemanager.scheduler.class         org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler     

配置hadoop-devn.sh和yarn-env.sh--默认即可

Hadoop的各守护进程依赖于JAVA_HOME, Hadoop大多数守护进程的堆内存大小为1G

可根据需求调整。

slaves:定义hdfs的从节点列表--默认为本机

4.格式化HDFS

假如hdfs-site.xml 中的dfs.namenode.name.dir目录不存在,格式化会创建之

如果实现存在:需要确保其权限设置正确,格式化会清除其内部数据并重新建立文件系统

切换hdfs用户的身份执行

[root@node2 hadoop]# su - hdfs

hdfs命令分类:

User Commands

dfs:文件系统命令,,rm,cat,put,get,rmr,ls,cp,du,...

hdfs dfs -put localfile /user/hadoop/hadoopfile

fetchdt

fsck

version

Administration Commands

balancer

datanode

dfsadmin

mover

namenode

secondarynamenode

简单配置拍错:不能在/data目录下生成文件

解决步骤:

1.diff 命令,把配置文件头部的空白全部删除

vim

::%s/^[[:space:]]\+//

[hdfs@localhost ~]$ hdfs namenode -format

/data/hadoop/hdfs/nn has been successfully formatted.

5.启动hadoop //NN,DN,SNN,RM,NM

NameNode: hadoop-daemon.sh start/stop namenode

DataNode: hadoop-daemon.sh start/stop datanode

Secondary NameNode: hadoop-daemon.sh start/stop secondarynamenode

ResourceManager: yarn-daemon.sh start/stop resourcemanager

NodeManager: yarn-daemon.sh start/stop nodemanager

启动HDFS服务

HDFS有三个守护进程:

namenode、datanode、secondarynamenode都可以通过hadoop daemon.sh

YARN有两个守护进程:

resourcemanager和nodemanager,都可以通过yarn-daemon.sh 脚本启动

[hdfs@localhost ~]$ hadoop-daemon.sh start namenode

starting namenode, logging to /bdapps/hadoop/logs/hadoop-hdfs-namenode-localhost.o

[hdfs@localhost ~]$ jps //java的ps命令

4215 NameNode

4255 Jps

[hdfs@localhost ~]$ hadoop-daemon.sh start secondarynamenode

starting secondarynamenode, logging to /bdapps/hadoop/logs/hadoop-hdfs-secondarynamenode-localhost.out

[hdfs@localhost ~]$ hadoop-daemon.sh start datanode

starting datanode, logging to /bdapps/hadoop/logs/hadoop-hdfs-datanode-localhost.ou

//此时就可以上传文件了

[hdfs@localhost ~]$ hdfs dfs -mkdir /test //创建组

[hdfs@localhost ~]$ hdfs dfs -ls /

Found 1 items

drwxr-xr-x  - hdfs supergroup      0 2017-05-13 22:18 /te

[hdfs@localhost ~]$ hdfs dfs -put /etc/fstab /test/

[hdfs@localhost ~]$ hdfs dfs -ls /test

Found 1 items

-rw-r--r--  1 hdfs supergroup     537 2017-05-13 22:21 /test/fstab

cat /data/hadoop/hdfs/dn/current/BP-1163334701-127.0.0.1-1494676927122/current/finalized/subdir0/subdir0/blk_1073741825

//可以进行查看

hdfs dfs -cat /test/fstab //也可以查看内容一样

//文件过大的话,会被切割成n块。

注意:如果要其他用户对hdfs有写入权限,需要在hdfs-site.xml添加一项属性定义。

    dfs.permissions     false [root@node2 test]# su - yarn [yarn@localhost ~]$ yarn-daemon.sh start resourcemanager starting resourcemanager, logging to /bdapps/hadoop/logs/yarn-yarn-resourcemanager-localhost.out [yarn@localhost ~]$ yarn-daemon.sh start nodemanager starting nodemanager, logging to /bdapps/hadoop/logs/yarn-yarn-nodemanager-localhost.out [yarn@localhost ~]$ jps 5191 Jps 5068 NodeManager 4829 ResourceManager

6.Web UI概览

HDFS和YARN ResourceManager各自提供了Web接口。

HDFS-NameNode:http://NameNodeHost:50070/

YARN-ResourceManager http://ResourceManagerHost:8088

http://192.168.4.105:50070/dfshealth.html#tab-overview

YARN-ResourceManager:只监听在127.0.0.1,

EditLog的内容:

NameNode SecondaryNameNode

fs-p_w_picpath

|________>  合并为新的fs-p_w_picpath

EditLog滚动一次 ------>取出    |

   |

覆盖原有的fs-p_w_picpath__________________|

secondaryNameNode:合并NameNode上的Editlog合并到fs-imange上,以保证持久影响文件上,尽可能多的保持多的信息

真正的使用元数据在NameNode的内存中,假如数据发生修改,会追加到editlog中

firefox localhost:8088 &

Applications

SUBMITED:已经提交的作业

ACCEPTED:接受的作业

RUNNING

FINISHED

FAILED:失败的

KILLED:

//SecnondaryNameNode从NameNode中取得

7.运行测试程序

[root@localhost mapreduce]# su - hdfs

[hdfs@localhost ~]$ cd /bdapps/hadoop/share/hadoop/mapreduce/

yarn jar hadoop-mapreduce-examples-2.6.2.jar  //有很多测试程序

hdfs dfs -ls /test/fstab.out //查看

hdfs dfs -cat /test/fstab.out/paprt-r-00000 //查看

//统计每个单词的出现次数

小结

1.配置环境

java.sh hadoop.sh

2.创建用户和相关目录

3.配置hadoop

core-site.xml

hdfs-site.xml

mapred-site.xml

yarn-site.xml

4.格式化HDFS

[hdfs@localhost ~]$ hdfs namenode -format

/data/hadoop/hdfs/nn has been successfully formatted.

5.启动hadoop

NameNode: hadoop-daemon.sh start/stop namenode

DataNode: hadoop-daemon.sh start/stop datanode

Secondary NameNode: hadoop-daemon.sh start/stop secondarynamenode

ResourceManager: yarn-daemon.sh start/stop resourcemanager

NodeManager: yarn-daemon.sh start/stop nodemanager

6.Web UI概览

HDFS和YARN ResourceManager各自提供了Web接口。

HDFS-NameNode:http://NameNodeHost:50070/

YARN-ResourceManager http://ResourceManagerHost:8088

帮助文档:http://hadoop.apache.org/docs/r2.6.5/

另外有需要云服务器可以了解下创新互联cdcxhl.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


网页名称:Hadoop伪分布式安装-创新互联
本文来源:http://azwzsj.com/article/dpoegg.html