搭建大数据平台系列(3)-hbase环境搭建

1.安装步骤

Hbase的安装需要在hadoop和zookeeper安装完成的基础上进行安装部署,所以,需要在安装hbase前准备好hadoop和zookeeper的环境(请看本系列前几篇文章)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
`1.下载hbase-1.0.0-cdh5.5.0.tar.gz到master机器的/bigdataspacce文件夹下
2.解压安装包的命令:
[hadoop@master ]()$ cd /bigdataspacce
[hadoop@master bigdataspace]()$ tar -zxvf hbase-1.0.0-cdh5.5.0.tar.gz
3.解压完成后删除压缩包:
[hadoop@master bigdataspace]()$ rm hbase-1.0.0-cdh5.5.0.tar.gz
4.修改hbase-env.sh、hbase-site.xml配置文件以及regionservers文件(配置dataNode节点)
$ cd /home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0/conf
$ vi hbase-env.sh
# The java implementation to use. Java 1.7+ required.
# export JAVA_HOME=/usr/java/jdk1.6.0/
(在上面这条注释下加上:)
export JAVA_HOME=/home/hadoop/bigdataspace/jdk1.8.0_60
……
export HBASE_PID_DIR=/data/hbase-1.0.0-cdh5.5.0/pids
# export HBASE_MANAGES_ZK=true #设置hbase是否管理zookeeper
export HBASE_MANAGES_ZK=true
export HBASE_MANAGES_ZK=false #使用独立的ZooKeeper时需要修改HBASE_MANAGES_ZK值为false,为不使用默认自带的ZooKeeper实例。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
`$  vi  hbase-site.xml
(修改配置文件内容为如下)
\<configuration\>
\<property\>
\<name\>hbase.rootdir\</name\>
\<value\>hdfs://master:8020/hbase\</value\>
\</property\>
\<property\>
\<name\>hbase.cluster.distributed\</name\>
\<value\>true\</value\>
\</property\>
\<property\>
\<name\>hbase.zookeeper.quorum\</name\>
\<value\>slave1,slave2,slave3\</value\>
\</property\>
\<property\>
\<name\>hbase.zookeeper.property.dataDir\</name\>
\<value\>/data/zookeeper-3.4.5-cdh5.5.0/var/data\</value\>
\</property\>
\<property\>
\<name\>hbase.tmp.dir\</name\>
\<value\>/data/hbase-1.0.0-cdh5.5.0/tmp\</value\>
\</property\>
\</configuration\>
(hdfs://master:8020/hbase,这里的hbase目录未建好的话是需要hdfs dfs –mkdir 新建的目录)
$ vi regionservers
slave1
slave2
slave3
(以上使用对应的ip配置也可以)
```

`5.配置HBASE_HOME
$ vi /etc/profile
(加上如下配置)
export HBASE_HOME=/home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$PATH
6.使用scp命令把hbase分发到各个节点
$ scp -r hbase-1.0.0-cdh5.5.0/ hadoop@slave1:/bigdataspace/
$ scp -r hbase-1.0.0-cdh5.5.0/ hadoop@slave2:/bigdataspace/
$ scp -r hbase-1.0.0-cdh5.5.0/ hadoop@slave3:/bigdataspace/

然后在各个节点上执行第5步:配置HBASE_HOME_

1
`

`7.Hbase的启动与停止
启动hbase时要确保hdfs已经启动,HBase的启动顺序为:HDFS->Zookeeper->HBase,启动Hbase的命令如下(在master机器上):
hadoop@master $ cd /home/hadoop/bigdataspace/hbase-1.0.0-cdh5.5.0/bin
(注意,如果设置了hbase管理zookeeper,则需要先关闭手动启动的各节点zookeeper)
如slave1机器:
hadoop@slave1 $ /bigdataspace/zookeeper-3.4.5-cdh5.5.0/bin/zkServer.sh stop
在master机器:
hadoop@master bin$ ./start-hbase.sh

hadoop@master bin$ jps
29385 HMaster
19994 JobHistoryServer
19068 NameNode
29757 Jps
19422 ResourceManager
19263 SecondaryNameNode

1
`

`如slave1机器:
hadoop@slave1 bin$ jps
12768 DataNode
17971 HRegionServer
12884 NodeManager
22704 QuorumPeerMain
18169 Jps
17851 HQuorumPeer #hbase管理zookeeper的进程,

如果export HBASE_MANAGES_ZK=true,才会出现上面的进程

如果HQuorumPeer不存在,而是QuorumPeerMain则表明需要手动关闭zookeeper,hbase才能接手管理。
Hbase停止命令:
hadoop@master bin$ ./stop-hbase.sh
`
`## 2.验证启动成功
访问HBase web 页面:http://master:60010/