HBase单节点的安装以及shell操作

xiaoxiao2025-08-12  13

概览

1.HBase简介 2.上传解压 3.修改配置文件 4.启动 5.进入客户端进行shell操作

1.HBase简介

HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。

HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。

与FUJITSU Cliq等商用大数据产品不同,HBase是Google Bigtable的开源实现,类似Google Bigtable利用GFS作为其文件存储系统,HBase利用Hadoop HDFS作为其文件存储系统;Google运行MapReduce来处理Bigtable中的海量数据,HBase同样利用Hadoop MapReduce来处理HBase中的海量数据;Google Bigtable利用Chubby作为协同服务,HBase利用Zookeeper作为对应。

2.上传解压

准备: 1.hbase-2.0.0 2.XShell 5 3.Xftp 5

使用Xshell工具(官网下载免费版本即可)连接虚拟机

在usr下创建一个hbase文件夹作为压缩包存放路径和安装路径

[root@localhost ~]# cd /usr/ [root@localhost usr]# ls bin etc games hadoop hive include java lib lib64 libexec local sbin share sqoop src tmp zookeeper [root@localhost usr]# mkdir hbase [root@localhost usr]# ls bin etc games hadoop hbase hive include java lib lib64 libexec local sbin share sqoop src tmp zookeeper

利用Xftp将hbase的压缩包上传到hbase文件夹下

[root@localhost usr]# cd hbase

然后解压

[root@localhost hbase]# tar -zxf hbase-2.0.0-bin.tar.gz

3.修改配置文件

进入到hbase安装目录下的conf文件夹下修改配置文件

3.1 .hbase-env.sh

[root@localhost conf]# ls hadoop-metrics2-hbase.properties hbase-env.cmd hbase-env.sh hbase-policy.xml hbase-site.xml log4j.properties regionservers [root@localhost conf]# vim hbase-env.sh

在第28行左右找到这个 将其修改为你的jdk安装路径,jdk的安装参考Hadoop集群单机版搭建中的jdk安装

# The java implementation to use. Java 1.8+ required. #这是我的jdk安装路径 export JAVA_HOME=/usr/java/jdk1.8.0_141

3.2 .hbase-site.xml

[root@localhost conf]# vim hbase-site.xml

在configuration中添加

<property> <name>hbase.rootdir</name> <value>file:///usr/hbase/data</value> </property>

3.3 .profile环境变量

[root@localhost conf]# vim /etc/profile

在最后添加

export HBASE_HOME=/usr/hbase/hbase-2.0.0 export PATH=$PATH:$HBASE_HOME/bin

保存退出,刷新

[root@localhost conf]# source /etc/profile

4.启动

首先确保你的hadoop启动start-all.sh 如果没有hadoop参考Hadoop单机版搭建

[root@localhost conf]# start-hbase.sh SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/hbase/hbase-2.0.0/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/usr/hadoop/hadoop-2.7.3/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] running master, logging to /usr/hbase/hbase-2.0.0/logs/hbase-root-master-zhiyou.out

在浏览器查看ip:16010(注意关闭防火墙systemctl stop firewalld(CentOS7.0))

5.进入客户端进行shell操作

[root@localhost conf]# hbase shell 显示hbase中的表 list 创建user表,包含info、data两个列族 create 'user', 'info1', 'data1' create 'user', {NAME => 'info', VERSIONS => 3} 向user表中插入信息,row key为rk0001,列族info中添加name列标示符,值为zhangsan put 'user', 'rk0001', 'info:name', 'zhangsan' 向user表中插入信息,row key为rk0001,列族info中添加gender列标示符,值为female put 'user', 'rk0001', 'info:gender', 'female' 向user表中插入信息,row key为rk0001,列族info中添加age列标示符,值为20 put 'user', 'rk0001', 'info:age', 20 向user表中插入信息,row key为rk0001,列族data中添加pic列标示符,值为picture put 'user', 'rk0001', 'data:pic', 'picture' 获取user表中row key为rk0001的所有信息 get 'user', 'rk0001' 获取user表中row key为rk0001,info列族的所有信息 get 'user', 'rk0001', 'info' 获取user表中row key为rk0001,info列族的name、age列标示符的信息 get 'user', 'rk0001', 'info:name', 'info:age' 获取user表中row key为rk0001,info、data列族的信息 get 'user', 'rk0001', 'info', 'data' get 'user', 'rk0001', {COLUMN => ['info', 'data']} get 'user', 'rk0001', {COLUMN => ['info:name', 'data:pic']} 获取user表中row key为rk0001,列族为info,版本号最新5个的信息 get 'people', 'rk0002', {COLUMN => 'info', VERSIONS => 2} get 'user', 'rk0001', {COLUMN => 'info:name', VERSIONS => 5} get 'user', 'rk0001', {COLUMN => 'info:name', VERSIONS => 5, TIMERANGE => [1392368783980, 1392380169184]} 获取user表中row key为rk0001,列标示符中含有a的信息 get 'people', 'rk0001', {FILTER => "(QualifierFilter(=,'substring:a'))"} put 'user', 'rk0002', 'info:name', 'fanbingbing' put 'user', 'rk0002', 'info:gender', 'female' put 'user', 'rk0002', 'info:nationality', '中国' get 'user', 'rk0002', {FILTER => "ValueFilter(=, 'binary:中国')"} 查询user表中的所有信息 scan 'user' 查询user表中列族为info的信息 scan 'people', {COLUMNS => 'info'} scan 'user', {COLUMNS => 'info', RAW => true, VERSIONS => 5} scan 'persion', {COLUMNS => 'info', RAW => true, VERSIONS => 3} 查询user表中列族为info和data的信息 scan 'user', {COLUMNS => ['info', 'data']} scan 'user', {COLUMNS => ['info:name', 'data:pic']} 查询user表中列族为info、列标示符为name的信息 scan 'user', {COLUMNS => 'info:name'} 查询user表中列族为info、列标示符为name的信息,并且版本最新的5个 scan 'user', {COLUMNS => 'info:name', VERSIONS => 5} 查询user表中列族为info和data且列标示符中含有a字符的信息 scan 'people', {COLUMNS => ['info', 'data'], FILTER => "(QualifierFilter(=,'substring:a'))"} 查询user表中列族为info,rk范围是[rk0001, rk0003)的数据 scan 'people', {COLUMNS => 'info', STARTROW => 'rk0001', ENDROW => 'rk0003'} 查询user表中row key以rk字符开头的 scan 'user',{FILTER=>"PrefixFilter('rk')"} 查询user表中指定范围的数据 scan 'user', {TIMERANGE => [1392368783980, 1392380169184]} 删除数据 删除user表row key为rk0001,列标示符为info:name的数据 delete 'people', 'rk0001', 'info:name' 删除user表row key为rk0001,列标示符为info:name,timestamp为1392383705316的数据 delete 'user', 'rk0001', 'info:name', 1392383705316 清空user表中的数据 truncate 'people' 修改表结构 首先停用user表(新版本不用) disable 'user' 添加两个列族f1和f2 alter 'people', NAME => 'f1' alter 'user', NAME => 'f2' 启用表 enable 'user' ###disable 'user'(新版本不用) 删除一个列族: alter 'user', NAME => 'f1', METHOD => 'delete' 或 alter 'user', 'delete' => 'f1' 添加列族f1同时删除列族f2 alter 'user', {NAME => 'f1'}, {NAME => 'f2', METHOD => 'delete'} 将user表的f1列族版本号改为5 alter 'people', NAME => 'info', VERSIONS => 5 启用表 enable 'user' 删除表 disable 'user' drop 'user'
转载请注明原文地址: https://www.6miu.com/read-5034694.html

最新回复(0)