Hadoop的安装步骤

本篇内容主要讲解“Hadoop的安装步骤”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Hadoop的安装步骤”吧!

创新互联致力于成都做网站、成都网站制作,成都网站设计,集团网站建设等服务标准化,推过标准化降低中小企业的建站的成本,并持续提升建站的定制化服务水平进行质量交付,让企业网站从市场竞争中脱颖而出。 选择创新互联,就选择了安全、稳定、美观的网站建设服务!

环境:

Ubuntu14.04

Hadoop 2.4.0,Hive  0.13.1

一.单机模式

1.安装全新的Ubuntu系统,用sudo apt-get update 和 sudo apt-get upgrade 更新系统,这步属个人习惯,可以不做。

2.创建hadoop用户组和hadoop帐号:

   sudo addgroup hadoop

   sudo adduser -ingroup hadoop hadoop

3.编辑/etc/sudoer文件给hadoop帐号开与root一样的权限 hadoop  ALL=(ALL:ALL) ALL

4.用hadoop用户登录:su hadoop

5.确认openssh已经安装如未安装则安装:

     sudo apt-get install openssh-server

     sudo /etc/init.d/ssh start

6.创建免密码登录,生成私钥和公钥

ssh-keygen -t rsa -P ""

7.将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

8.ssh localhost 测试无密码登录。

9.安装java环境(最好安装sunjdk,不要安装openjdk)

    a. 下载最新版的jdk,并解压

    b.创建安装目录mkdir /usr/lib/jvm

    c.将解压好的jdk移动到安装目录,如:sudo mv jdk1.7/ /usr/lib/jvm/java-7-sun

    d. 编辑~/.bashrc以配置java的环境:

          export JAVA_HOME=/usr/lib/jvm/java-7-sun 
          export JRE_HOME=${JAVA_HOME}/jre 
          export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

          export PATH=${JAVA_HOME}/bin:$PATH 

    e. source ~/.bashrc 使配置生效,env查看结果,

    f.配置默认程序

      sudo update-alternatives --install /usr/bin/java java /usr/lib/jvm/java-7-sun/bin/java 300 
      sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jvm/java-7-sun/bin/javac 300 
      sudo update-alternatives --config java                                                                                                                     sudo update-alternatives --config javac

   g.java -version;avac -version 查看java版本号是否正确。

Hadoop的安装步骤

(Ps: 之前我装的是java1.8版本,但是在后面编译hadoop的时候保存了,然后果断换成1.7版本,一切正常)

10.下载hadoop 最新版 http://mirror.bit.edu.cn/apache/hadoop/common/ 并解压;

11.创建hadoop安装目录 sudo mkdir /usr/local/hadoop,将解压后的hadoop文件夹移过去 sudo mv ./hadoop-2.4.0/* /usr/local/hadoop;修改hadoop安装目录权限 sudo chmod 774 /usr/local/hadoop

12.配置haoop环境变量,vi ~/.bashrc 

14.测试

单机模式安装完成,下面通过执行hadoop自带实例WordCount验证是否安装成功

    /usr/local/hadoop路径下创建input文件夹    

mkdir input

    拷贝README.txt到input    

cp README.txt input

    执行WordCount

    bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.4.0-sources.jar org.apache.hadoop.examples.WordCount input output

至此,单机版配置完成,其实还是很简单的。

二.伪分布式

15.

设定*-site.xml
这里需要设定3个文件:core-site.xml,hdfs-site.xml,mapred-site.xml,都在/usr/local/Hadoop/conf目录下
core-site.xml:  Hadoop Core的配置项,例如HDFS和MapReduce常用的I/O设置等。
hdfs-site.xml:  Hadoop 守护进程的配置项,包括namenode,辅助namenode和datanode等。
mapred-site.xml: MapReduce 守护进程的配置项,包括jobtracker和tasktracker。   

首先在hadoop目录下新建几个文件夹

~/hadoop$ mkdir tmp
~/hadoop$ mkdir hdfs
~/hadoop$ mkdir hdfs/name
~/hadoop$ mkdir hdfs/data

编辑配置文件:

core-site.xml:


   
        fs.default.name
        hdfs://localhost:9000
   

   
        hadoop.tmp.dir
        /usr/local/hadoop/tmp
   

hdfs-site.xml:


   
        dfs.replication
        1
   

   
        dfs.name.dir
        /usr/local/hadoop/hdfs/name
   

   
        dfs.data.dir
        /usr/local/hadoop/hdfs/data
   

16.格式化 hdfs /usr/local/hadoop/bin/hadoop namenode -format 结果类似

17.启动hadoop  /usr/local/hadoop/sbin/start-all.sh (老版本启动程序是在/usr/local/hadoop/bin目录里),运行jps,出现如下结果说明成功:

首先在dfs中创建input目录

Hadoop@Ubuntu:/usr/local/hadoop$ bin/hadoop dfs -mkdir input 

将conf中的文件拷贝到dfs中的input

hadoop@ubuntu :/usr/local/hadoop$ hadoop dfs -copyFromLocal conf/* input

在伪分布式模式下运行WordCount

hadoop@ubuntu :/usr/local/hadoop$ hadoop jar hadoop-examples-1.0.2.jar wordcount input output

18.运行 /usr/local/hadoop/bin/hadoop dfsadmin -report 查看运行状态 或输入http://ip:50070查看web版运行状态

19.运行测试例子

首先在dfs中创建input目录

Hadoop@Ubuntu:/usr/local/hadoop$ bin/hadoop dfs -mkdir input 

将conf中的文件拷贝到dfs中的input

hadoop@ubuntu :/usr/local/hadoop$ hadoop dfs -copyFromLocal conf/* input

在伪分布式模式下运行WordCount

hadoop@ubuntu :/usr/local/hadoop$ hadoop jar hadoop-examples-1.0.2.jar wordcount input output

PS:在64位版本下会报“WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable”的错误,这是因为hadoop网站提供的是32位版本,在64位下需要自己下在hadoop源码重新编译,但我重新编译了以后仍然报错,打开debug模式后发现是lib的路径错了,于是cp /usr/local/hadoop/lib/native/* /usr/local/hadoop/lib/ 问题解决。

到此,相信大家对“Hadoop的安装步骤”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!


文章名称:Hadoop的安装步骤
文章起源:http://azwzsj.com/article/gpjdpi.html