[HadoopinAction]第1章Hadoop简介
编写可扩展、分布式的数据密集型程序和基础知识
在成都做网站、网站制作中从网站色彩、结构布局、栏目设置、关键词群组等细微处着手,突出企业的产品/服务/品牌,帮助企业锁定精准用户,提高在线咨询和转化,使成都网站营销成为有效果、有回报的无锡营销推广。成都创新互联公司专业成都网站建设10年了,客户满意度97.8%,欢迎成都创新互联客户联系。
理解Hadoop和MapReduce
编写和运行一个基本的MapReduce程序
1、什么是Hadoop
Hadoop是一个开源的框架,可编写和运行分布式应用处理大规模数据。
Hadoop与众不同之处在于以下几点:
方便——Hadoop运行在由一般商用机器构成的大型集群上,或者云计算服务之上;
健壮——Hadoop致力于在一般商用硬件上运行,其架构假设硬件会频繁地出现失效;
可扩展——Hadoop通过增加集群节点,可以线性地扩展以处理更大的数据集;
简单——Hadoop运行用户快速编写出高效的并行代码。
2、了解分布式系统和Hadoop
理解分布式系统(向外扩展)和大型单机服务器(向上扩展)之间的对比,考虑现有I/O技术的性价比。
理解Hadoop和其他分布式架构(SETI@home)的区别:
Hadoop设计理念是代码向数据迁移,而SETI@home设计理念是数据迁移。
要运行的程序在规模上比数据小几个数量级,更容易移动;此外,在网络上移动数据要比在其上加载代码更花时间,不如让数据不动而将可执行代码移动到数据所在机器上去。
3、比较SQL数据库和Hadoop
SQL(结构化查询语言)是针对结构化数据设计的,而Hadoop最初的许多应用针对的是文本这种非结构化数据。让我们从特定的视角将Hadoop与典型SQL数据库做更详细的比较:
用向外扩展代替向上扩展——扩展商用关系型数据库的代价会更加昂贵的
用键/值对代替关系表——Hadoop使用键/值对作为基本数据单元,可足够灵活地处理较少结构化的数据类型
用函数式编程(MapReduce)代替声明式查询(SQL)——在MapReduce中,实际的数据处理步骤是由你指定的,很类似于SQL引擎的一个执行计划
用离线处理代替在线处理——Hadoop是专为离线处理和大规模数据分析而设计的,并不适合那种对几个记录随机读写的在线事务处理模式
4、理解MapReduce
MapReduce是一种数据处理模型,最大的优点是容易扩展到多个计算节点上处理数据;
在MapReduce模型中,数据处理原语被称为mapper和reducer;
分解一个数据处理应用为mapper和reducer有时是繁琐的,但是一旦一MapReduce的形式写好了一个应用程序,仅需修改配置就可以将它扩展到集群中几百、几千,甚至几万台机器上运行。
[动手扩展一个简单程序]
少量文档处理方式:对于每个文档,使用分词过程逐个提取单词;对于每个单词,在多重集合wordcount中的相应项上加1;最后display()函数打印出wordcount中的所有条目。
大量文档处理方式:将工作分布到多台机器上,每台机器处理这些文档的不同部分,当所有机器都完成时,第二个处理阶段将合并这些结果。
一些细节可能会妨碍程序按预期工作,如文档读取过量导致中央存储服务器的带宽性能跟不上、多重集合wordcount条目过多超过计算机的内存容量。此外,第二阶段只有一个计算机处理wordcount任务,容易出现瓶颈,所以可以采用分布的方式运转,以某种方式将其分割到多台计算机上,使之能够独立运行,即需要在第一阶段后将wordcount分区,使得第二阶段的每台计算机仅需处理一个分区。
为了使它工作在一个分布式计算机集群上,需要添加以下功能:
存储文件到许多计算机上(第一阶段)
编写一个基于磁盘的散列表,使得处理不受内存容量限制
划分来自第一阶段的中间数据(即wordcount)
洗牌这些分区到第二阶段中合适的计算机上
MapReduce程序执行分为两个主要阶段,为mapping和reducing,每个阶段均定义为一个数据处理函数,分别称为mapper和reducer。在mapping阶段,MapReduce获取输入数据并将数据单元装入mapper;在reduce阶段,reducer处理来自mapper的所有输出,并给出最终结果。简而言之,mapper意味着将输入进行过滤与转换,使reducer可以完成聚合。
另外,为了扩展分布式的单词统计程序,不得不编写了partitioning和shuffling函数。
在MapReduce框架中编写应用程序就是定制化mapper和reducer的过程,以下是完整的数据流:
应用的输入必须组织为一个键/值对的列表list(
); 含有键/值对的列表被拆分,进而通过调用mapper的map函数对每个单独的键/值对
进行处理; 所有mapper的输出被聚合到一个包含
对的巨大列表中; 每个reducer分别处理每个被聚合起来的
,并输出 。
5、用Hadoop统计单词——运行第一个程序
Linux操作系统
JDK1.6以上运行环境
Hadoop操作环境
Usage:hadoop [—config configdir] COMMAND
这里COMMAND为下列其中一个:
namenode -format 格式化DFS文件系统
secondarynamenode 运行DFS的第二个namenode
namenode 运行DFS的namenode
datanode 运行一个DFS的datanode
dfsadmin 运行一个DFS的admin客户端
fsck 运行一个DFS文件系统的检查工具
fs 运行一个普通的文件系统用户客户端
balancer 运行一个集群负载均衡工具
jobtracker 运行MapReduce的jobtracker节点
pipes 运行一个pipes作业
tasktracker 运行一个MapReduce的tasktracker节点
job 处理MapReduce作业
version 打印版本
jar
distcp
archive -archiveName NAME
daemonlog 获取或设置每个daemon的log级别
CLASSNAME 运行名为CLASSNAME的类大多数命令会在使用w/o参数
时打出帮助信息。
运行单词统计示例程序的命令形式如下:
hadoop jar hadoop-*-examples.jar wordcount [-m
编译修改后的单词统计程序的命令形式如下:
javac -classpath hadoop-*-core.jar -d playground/classes playground/src/WordCount.java
jar -cvf playground/src/wordcount.jar -C playground/classes/
运行修改后的单词统计程序的命令形式如下:
hadoop jar playground/wordcount.jar org.apache.hadoop.examples.WordCount input output
代码清单 WordCount.java
package org.apache.hadoop.examples; import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.util.GenericOptionsParser; public class WordCount { public static class TokenizerMapper extends Mapper
在(1)的位置上wordcount以默认配置使用了Java的StringTokenizer,这里仅基于空格来分词。为了在分词过程中忽略标准的标点符号,将它们加入到stringTokenizer的定界符列表中:
StringTokenizer itr = new StringTokenizer(value.toString(),” \t\n\r\f,.:;?![]’");
因为希望单词统计忽略大小写,把它们转换为Text对象前先将所有的单词都变成小写:
word.set(itr.nextToken().toLowerCase());
希望仅仅显示出现次数大于4次的单词:
if (sum > 4) context.write(key, result);
6、hadoop历史
创始人:Doug Cutting
2004年左右——Google发表了两篇论文来论述Google文件系统(GFS)和MapReduce框架。
2006年1月——雅虎聘用Doug,让他和一个专项团队一起改进Hadoop,并将其作为一个开源项目。
网页名称:[HadoopinAction]第1章Hadoop简介
转载注明:http://azwzsj.com/article/jhgodi.html