• 欢迎关注微信公众号:九万里大数据
  • 请使用Ctrl+D收藏本站到书签栏
  • 手机也可访问本站 jwldata.com

Hive客户端安装配置(hive-1.1.0-cdh5.16.2)

大数据技术 九万里大数据 2年前 (2021-04-30) 1409次浏览 0个评论 扫描二维码
文章目录[隐藏]

虽然通过CDH控制台可以很方便地安装hive客户端,但如果客户端机器并不属于自己管辖,通过这种先安装cloudera manager agent再安装hive客户端的方式显然不妥当。在这种情形下,用户自己安装配置hive客户端,是最好的方式。

安装JDK

首先需要安装JDK

配置hosts

将服务端的hosts全部配置,添加到客户端的/etc/hosts中。

下载安装包

http://archive.cloudera.com/cdh5/cdh/5/hive-1.1.0-cdh5.16.2.tar.gz
目前没有账号的话,已无法通过cloudera官网下载。我传了一份到百度网盘,下载地址见本文末尾

当然,下载apache官网安装包,也是可以的。
https://archive.apache.org/dist/hive/hive-1.1.0/apache-hive-1.1.0-bin.tar.gz

安装Hive客户端

解压赋权

tar -zxf hive-1.1.0-cdh5.16.2.tar.gz -C /opt
sudo chown -R root:root hive-1.1.0-cdh5.16.2

添加环境变量

/etc/profile追加
# JDK
export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64
 
# Hive
export HIVE_HOME=/opt/hive-1.1.0-cdh5.16.2
export PATH=$PATH:$HIVE_HOME/bin
 
source /etc/profile

如果同时安装Spark客户端,记住hive的环境变量要排在spark之前。因为Spark客户端也自带beeline命令行工具,会影响Hive的beeline命令行工具。

替换配置文件

从CDH控制台下载Hive的配置文件,将hive-clientconfig.zip里面的所有文件,拷贝到/opt/hive-1.1.0-cdh5.16.2/conf下替换已有文件。
Hive客户端安装配置(hive-1.1.0-cdh5.16.2)

验证测试

不会用beeline命令的,可以看这篇:hive的beeline使用

无kerberos的hive

beeline -u 'jdbc:hive2://ctkf02:10000/default'

带kerberos的hive

beeline -u 'jdbc:hive2://ctkf02:10000/default;principal=hive/_HOST@CTKF01'

可能的报错

如果在使用hive的beeline命令启动报ls: cannot access /opt/spark-2.4.0-bin-hadoop2.6/lib/spark-assembly-*.jar: No such file or directory,可以考虑修改/opt/hive-1.1.0-cdh5.16.2/bin/hive文件,不改也问题不大。

找到sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`这一行修改为
sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`

如果在使用hive的beeline命令启动报which: no hbase in (/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/usr/java/jdk1.8.0_181-amd64/bin:/opt/hadoop-2.6.0-cdh5.16.2/bin:/opt/hive-1.1.0-cdh5.16.2/bin:/opt/spark-2.4.0-bin-hadoop2.6/sbin:/opt/spark-2.4.0-bin-hadoop2.6/bin:/root/bin),这是因为没有安装HBase导致,不影响使用。

下载地址

hive-1.1.0-cdh5.16.2.tar.gz下载地址:

Hive客户端安装配置(hive-1.1.0-cdh5.16.2)


本站文章,如未注明,均为原创 | 原创文章版权归九万里大数据所有,未经许可不得转载。
本文链接:Hive客户端安装配置(hive-1.1.0-cdh5.16.2)
喜欢 (5)

您必须 登录 才能发表评论!