Hadoop生态的组件HBase怎么搭建

这篇文章主要讲解了“Hadoop生态的组件HBase怎么搭建”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Hadoop生态的组件HBase怎么搭建”吧!

10年积累的做网站、网站设计经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先制作网站后付款的网站建设流程,更有共青城免费网站建设让你可以放心的选择与我们合作。

1.分布式表格系统的由来

   分布式表格系统对外提供表格模型,每个表格由很多行组成,通过主键唯一标识,每一行包含很多列。整个表格在系统中全局有序。而Google的BigTable是分布式表格系统的始祖,它采用双层结构。底层用GFS作为持久层存储层。而BigTable的对外的接口不怎么丰富。所以谷歌有开发出Megastore和Spanner.既提供来接口,又能处理事务.

    表格中的每一行都有主键(Row Key)作为唯一标识。每一行又包含很多列(Column)。某一行的某一列构成一个单元(Cell),每个单元包含多个版本的数据。整体来看的话,BigTable是一个分布式多维度映射表。

(row:string,column:string,timestamp:int64)->string

     多个列的话又可以构成一个列族(Column Family),所以列名就由列族(Column Family)+列名(qualifier).列族是访问控制的单元,所以列族的话是预先定义好的,而列的话后面可以添加,数量任意.

 存储结构如图(逻辑视图):

   Hadoop生态的组件HBase怎么搭建

  存储结构如图(物理视图):

    Hadoop生态的组件HBase怎么搭建

    行主键是任意的字符串,但是大小不能超过64KB。按主键排序,而主键是字典序.所以网址接近刚好可以排列在一块.

2.Hadoop中的HBase

    HBase开源山寨版BigTable. 基于Hadoop的分布式文件系统HDFS之上。然后HDFS和HBase是有什么区别呢?

HDFS 是分布式文件系统,适合保存大文件。官方宣称它并非普通用途文件系统,不提供文件的个别记录的快速查询。 
另一方面,HBase基于HDFS且提供大表的记录快速查找(和更新)。这有时可能引起概念混乱。 HBase 内部将数据放到索引好的 
"存储文件(StoreFiles)" ,以便高速查询。存储文件位于 HDFS中。
PS:说白了,HBASE就是一个索引集合.

    HBase与关系数据库的存储结构对比(HBase是NOSQL--not only sql的一种):在HBase中定位到value值,需要几个坐标:rowkey,列族,列,版本号。。在这里我对比的例子不太恰当。。Hbase还是存储一些半结构化的数据要好一点。

     MySQL:

     idnamepasswordtype
       1zhangsanxxxxx

sb

       2lisi324324sb2
       3zhaowu423423db

       hbase:

    rowkey(主键)

    info(列族)

others(列族)
   namepasswordtypeage
rk0000999

zhangsan,version1

zhangsan3,version2

xxxxxxxxsb10

      Hadoop生态的组件HBase怎么搭建

3.实验环境中搭建HBase

   前提: 已经部署分布式文件系统,例如HDFS.

   3.1 机器准备,以及节点的分配

         在这里有三台机器,其中一台为HMaster,同时的有三个HRegionServer.所以有一台机器时两种角色.还需要部署HDFS和Zookeeper.我的HDFS也是三个节点,也是有一台机器同时有NameNode和DataNode,SecondaryNameNode,其他两台机器只有datanode.

IPHostname

JVM Pro‍cess

192.168.237.201Spark-0x64-001HMaster,HRegionServer,QuorumPeerMain,DataNode
NameNode,SecondaryNameNode
192.168.237.202Spark-0x64-002

HRegionServer,QurumPeerMain,DataNode

192.168.237.203Spark-0x64-003HRegionServer,QurumPeerMain,DataNode

    3.2 安装非HA模式的HDFS

          由于之前之前已经安装过HDFS的分布式集群,但是是非HA机制. 这里就不重复啦.

    3.3  安装集群的Zookeeper

           不重复啦。之前的博客已经写啦.http://my.oschina.net/codeWatching/blog/367309

     3.4 配置HBase的文件

          a. 修改文件hbase-evn.sh.添加两个地方.

           export JAVA_HOME=/spark/app/jdk1.7.0_21/

           export HBASE_MANAGES_ZK=false

          b. 修改文件hbase-site.xml


   
      hbase.rootdir
      hdfs://Spark-0x64-001:9000/hbase
   
   
      hbase.cluster.distributed
      true
   
   
      hbase.master
      Spark-0x64-001:6000
   
   
      hbase.zookeeper.quorum
      Spark-0x64-001,Spark-0x64-002,Spark-0x64-003
   

         c.将hadoop中的core-site.xml和hdfs-site.xml拷贝到hbase的conf目录下

         d.编辑regionservers文件

Spark-0x64-001
Spark-0x64-002
Spark-0x64-003

     3.5 将配置好的Hbase拷贝到其他机器上。Scp -r 命令.

     3.6 配置时间时间服务器。见链接:........

     3.7 启动HBase

a.在三台机器上启动zookeeper
b.启动HDFS.已启动
c.启动Hbase(主节点Master)--->sh bin/start-hbase.sh.
d.可选,启动多个HMaster---->hbase-daemon.sh start master

      3.8 验证Web页面

http://192.168.237.201:60010

4.HBase的系统架构分析

   HBase的技术架构图:一览无余 

  Hadoop生态的组件HBase怎么搭建

Hadoop生态的组件HBase怎么搭建

Client
1 包含访问hbase的接口,client维护着一些cache来加快对hbase的访问,比如regione的位置信息。
 
Zookeeper
1 保证任何时候,集群中只有一个master
2 存贮所有Region的寻址入口。
3 实时监控Region Server的状态,将Region server的上线和下线信息实时通知给Master
4 存储Hbase的schema,包括有哪些table,每个table有哪些column family
 
Master
1 为Region server分配region
2 负责region server的负载均衡
3 发现失效的region server并重新分配其上的region
4 GFS上的垃圾文件回收
5 处理schema更新请求
 
Region Server
1 Region server维护Master分配给它的region,处理对这些region的IO请求
2 Region server负责切分在运行过程中变得过大的region
可以看到,client访问hbase上数据的过程并不需要master参与(寻址访问zookeeper和region server,数据读写访问regione server),master仅仅维护者table和region的元数据信息,负载很低。

HBase的寻找数据的流程

 Hadoop生态的组件HBase怎么搭建

系统如何找到某个row key (或者某个 row key range)所在的region
hbase使用三层类似B+树的结构来保存region位置。
第一层是保存zookeeper(谷歌chubby)里面的文件,它持有root region的位置。
第二层root region是.META.表的第一个region其中保存了.META.z表其它region的位置。通过root region,我们就可以访问.META.表的数据。
.META.是第三层,它是一个特殊的表,保存了hbase中所有数据表的region 位置信息。
PS:root region永远不会被split,保证了最需要三次跳转,就能定位到任意region 。
2.META.表每行保存一个region的位置信息,row key 采用表名+表的最后一样编码而成。
3 为了加快访问,.META.表的全部region都保存在内存中。
假设,.META.表的一行在内存中大约占用1KB。并且每个region限制为128MB。
那么上面的三层结构可以保存的region数目为:
(128MB/1KB) * (128MB/1KB) = = 2(34)个region
4 client会将查询过的位置信息保存缓存起来,缓存不会主动失效,因此如果client上的缓存全部失效,则需要进行6次网络来回,才能定位到正确的region(其中三次用来发现缓存失效,另外三次用来获取位置信息)。

感谢各位的阅读,以上就是“Hadoop生态的组件HBase怎么搭建”的内容了,经过本文的学习后,相信大家对Hadoop生态的组件HBase怎么搭建这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


网页名称:Hadoop生态的组件HBase怎么搭建
URL分享:http://azwzsj.com/article/ihdsge.html