超简单搭建Hbase分布式存储系统

开启三台虚拟机 master slave1 slave2

上传hbase安装包到/opt/software

没有的就创建 mkdir /opt/software

解压Hbase包到src下

tar -zxvf hbase-1.2.1-bin.tar.gz -C /usr/local/src

修改包名

cd /usr/local/src

mv hbase-1.2.1 hbase

修改环境变量

# set hbase environment

export HBASE_HOME=/usr/local/src/hbase # hbase 安装目录

export PATH=$PATH:$HBASE_HOME/bin # 将 hbase 的 bin 目录添加到系统环境变量

生效环境变量

三台虚拟机修改 hbase-env.sh文件

export JAVA_HOME=/usr/local/src/java

export HADOOP_HOME=/usr/local/src/hadoop

export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

export HBASE_MANAGES_ZK=false

export HBASE_LOG_DIR=${HBASE_HOME}/logs

export HBASE_PID_DIR=${HBASE_HOME}/pid

slave1和slave2同上

修改hbase-site.xml

<property>

 <name>hbase.rootdir</name>                        

 <value>hdfs://master:8020/hbase</value>

</property>

<property>

 <name>hbase.master.info.port</name>

 <value>16010</value>

</property>

<property>

 <name>hbase.zookeeper.property.clientPort</name>

 <value>2181</value>

</property>

<property>

<name>hbase.tmp.dir</name>

<value>/usr/local/src/hbase/tmp</value>

</property>

<property>

 <name>zookeeper.session.timeout</name>

 <value>120000</value>

</property>

<property>

 <name>hbase.cluster.distributed</name>

 <value>true</value>

</property>

<property>

 <name>hbase.zookeeper.quorum</name>

 <value>master,slave1,slave2</value>

</property>

<property>

 <name>hbase.zookeeper.property.dataDir</name>

 <value>/usr/local/src/hbase/tmp/zookeeper-hbase</value>

</property>

hbase.rootdir:指定 HBase 的存储目录。

hbase.master.info.port:浏览器的访问端口

hbase.zookeeper.property.clientPort: 指定 zk 的连接端口。

hbase.tmp.dir:指定 hbase 在本地下生成文件路径,类似于 hadoop.tmp.dir。

zookeeper.session.timeout:RegionServer 与 Zookeeper 间的连接超时时间

hbase.cluster.distributed:HBase 是否为分布式模式。

hbase.zookeeper.quorum:默认值是 localhost,列出 zookeepr ensemble 中的servers。

hbase.zookeeper.property.dataDir:这里表示HBase在ZooKeeper上存储数据的位置。

修改regionservers

 vi regionservers

为了让 Hbase 读取到 hadoop 的配置,将 core-site.xml 和 hdfs-site.xml 两个文件拷贝到 $HBASE_HOME/conf/ 目录下 

cp /usr/local/src/hadoop/etc/hadoop/core-site.xml /usr/local/src/hbase/conf/

cp /usr/local/src/hadoop/etc/hadoop/hdfs-site.xml /usr/local/src/hbase/conf/

三台虚拟机登录hadoop

分发hbaseslave12

scp -r /usr/local/src/hbase hadoop@slave1:/usr/local/src

scp -r /usr/local/src/hbase hadoop@slave2:/usr/local/src

HBase 集群启动 master依次开启节点

zookeeper启动 hdfs启动

在master开启hbase节点

在web上查看集群 端口号16010


版权声明:本文为m0_52271180原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。