Hive安装及启动异常解决

xiaoxiao2021-02-28  10

前期准备

1、关于Hive的安装包和文档可以从这里获取:

Hive官方文档

Hive下载地址

Hive源码地址

2、Hive依赖于Hadoop,关于Hadoop的安装可以查看这里:

Hadoop安装——启动模式,基本配置,启动方式

Hadoop集群搭建——环境配置

3、安装mysql

由于Hive需要在数据库中存储元数据信息,所以安装hive之前需要先安装mysql。hive有一个默认的存放在内存中的数据库,企业开发一般不使用,这里就不使用默认数据库。如果你是Centos7可以点击这里进行安装——>Centos7安装Mysql

安装Hive

我这里采用的是hive-2.2.0-bin版本。

1、解压

tar -xzvf apache-hive-2.2.0-bin.tar.gz -C Documents/install/

2、配置,进入和Hive的配置目录conf

(1)配置hive.env.sh运行环境, 先将hive-env.sh.template重命名为hive.env.sh。

//重命名 mv hive-env.sh.template hive-env.sh //修改hive-env.sh配置如下 //HADOOP_HOME为hadoop的安装目录 //HIVE_CONF_DIR为Hive的配置文件所在目录 HADOOP_HOME=/home/bxp/Documents/install/hadoop-2.6.5 export HIVE_CONF_DIR=/home/bxp/Documents/install/hive-2.2.0-bin/conf

(2)配置hive-site.xml,此时文件下没有hive-site.xml,需要拷贝一份hive-default.xml.template命名为hive-site.xml,并将hive-default.xml.template重命名为hive-default.xml。将hive-site.xml文件中的配置全部删除,只需要添加以下配置即可。

<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <!--配置数据库连接--> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/hive2?createDatabaseIfNotExist=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <!--配置数据库连接驱动--> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <!--配置数据库连接用户名--> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>admin</value> <description>username to use against metastore database</description> </property> <!--配置数据库连接密码--> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>admin</value> <description>password to use against metastore database</description> </property> <!--配置使用hive查询数据时,显示所查询字段的头信息--> <property> <name>hive.cli.print.header</name> <value>true</value> <description>Whether to print the names of the columns in query output.</description> </property> <property> <name>hive.cli.print.current.db</name> <value>true</value> <description>Whether to include the current database in the Hive prompt.</description> </property> </configuration>

(3)将hive-log4j2.properties.template重命名为hive-log4j2.properties

3、下载mysql数据库连接驱动 默认情况下Hive的lib目录下没有mysql的驱动,所以需要去下载mysql驱动jar包放于Hive的lib目录下。如果没有驱动,在hive启动的时候会报错,当然根据报错提示很容易就能够发现。

4、在HDFS创建目录 启动已经安装好的hadoop,启动,并在hdfs文件系统上创建/tmp和/user/hive/warehouse目录,并为创建的目录添加同组写权限

//创建目录 bin/hdfs dfs -mkdir -p /tmp bin/hdfs dfs -mkdir -p /user/hive/warehouse //添加权限 dfs -chmod g+w /tmp dfs -chmod g+w /user/hive/warehouse

5、初始化metadata

bin/schematool -dbType mysql -initSchema

6、启动

bin/hive

启动失败解决方案

配置过程中细节很重要,下面就看看我在配置结束后,启动时遇到的问题以及解决方案,通过异常提示能够看出来的问题,这里就不再强调说明。

(1)问题一:与数据库建立连接时候没有权限的问题,无法连接的问题

Caused by: java.sql.SQLException: Unable to open a test connection to the given database. JDBC url = jdbc:mysql://192.168.1.103:3306/hivemetastore, username = admin. Terminating connection pool (set lazyInit to true if you expect to start your database after your app). Original Exception: ------ java.sql.SQLException: Access denied for user 'admin'@'hadoop-series.bxp.com' (using password: YES)

这个问题我查了很多说法,都是众说纷纭,最后发现,最简单的解决办法就是,不要去尝试创建一个新的数据库用户用于连接,直接使用mysql root用户连接即可。

但是使用root用户连接的时候,发只能够使用localhost(jdbc:mysql://localhost:3306) 才能够连接成功,而无法使用IP(jdbc:mysql://192.168.1.103:3306)进行连接。实际中hive和mysql不一定在一台主机上,所以必须要使用IP进行连接,要解决这个问题,只需要修改mysql root用户权限即可。具体步骤如下:

//登陆mysql sudo mysql -uroot -p //对mysql表进行操作 use mysql //查看表中的信息 select user,host from user; //修改root用户权限,默认是只能够本地登陆(localhost,127.0.0.1),修改为"%"就可以远程登陆 update user set host='%' where user='root' and host='localhost'; //将root本地登陆权限删除,具体的看表中的信息 delete from user where user='root' and host='::1'; delete from user where user='root' and host='127.0.0.1'; delete from user where user='root' and host='localhost.localdomain'; //刷新权限 flush privileges;

此时就可以通过IP(jdbc:mysql://192.168.1.103:3306)进行连接。

本人尝试过创建用户时使用主机IP(CREATE USER user1@IP ),此时连接时也使用IP(jdbc:mysql://IP:3306),也尝试过给创建的用户赋予”%”权限,但是还是相同的错误无法连接。新创建的用户只能够使用localhost权限,并且只能在本地进行登陆。所以初步断定这是Mysql为用户分配权限的原因。具体的原因没有深究,想了解更多的可以去查阅相关的资料进行解决。

(2)问题二:无法找到metadata

Caused by: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient Caused by: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient Caused by: java.lang.reflect.InvocationTargetException Caused by: MetaException(message:Version information not found in metastore. )

这个问题我也查了很多资料,也是有各种的说法,最后选择低版本(hive-0.13.1-bin)按照上面的的配置进行一系列的配置,居然正常启动了。最后就觉得是版本问题。最终发现在Hive2以后,安装启动hive之前需要对hive metadata进行初始化。使用如下命令:

bin/schematool -dbType mysql -initSchema

初始化完成之后就能够正常启动了。

(3)问题三:9000端口无法访问

Caused by: java.net.ConnectException: Call From hadoop-series.bxp.com/192.168.1.103 to hadoop-series.bxp.com:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused

首先是防火墙,如果你的防火墙已经关闭了,那就是hdfs没有启动成功或者没有启动导致的,因为9000是hdfs其中一个服务的端口。这里有必要说一下,我使用hive-0.13.1-bin版本进行启动的时候,不需要开启hdfs也能够启动。但是2.0后必须依赖hdfs。

转载请注明原文地址: https://www.6miu.com/read-1950000.html

最新回复(0)