自学内容网 自学内容网

Linux搭建hive手册

一、将hive安装包上传到NameNode节点并解压

1、删除安装MySQL时的.rpm文件

cd /opt/install_packages/
rm -rf *.rpm

2、将安装包拖进/install_packages目录

3、解压安装包

tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt/softs/

4、修改包名

cd /opt/softs
mv apache-hive-3.1.2-bin/ hive3.1.2

二、配置环境变量

1、打开profile文件

vim /etc/profile

2、最末尾添加以下内容

#HIVE_HOME
export HIVE_HOME=/opt/softs/hive3.1.2
export PATH=$PATH:$HIVE_HOME/bin

3、重新加载配置文件

source /etc/profile

4、输出路径检查

echo $HIVE_HOME

三、解决jar包冲突

1、将log4j-slf4j-impl-2.10.0.jar设置为不可用

cd /opt/softs/hive3.1.2/lib
mv log4j-slf4j-impl-2.10.0.jar log4j-slf4j-impl-2.10.0.jar.bak     

2、mysql的连接包

(1)将连接包上传至/opt/jar

(2)将上传的jar包拷贝到hive的lib目录下

cp /opt/jar/mysql-connector-java-5.1.37.jar /opt/softs/hive3.1.2/lib/

3、guava-*.jar包

(1)双击再打开一个bigdata03的窗口

(2)在新窗口中跳转至lib目录

cd /opt/softs/hadoop3.1.3/share/hadoop/common/lib/

(3)把高版本的jar包拷贝到hive 的lib目录下

cp guava-27.0-jre.jar /opt/softs/hive3.1.2/lib

(4)执行成功后回到原窗口输入ll检查

(5)将原来版本的加上bak后缀,设置为不可用

mv guava-19.0.jar guava-19.0.jar.bak

四、修改配置文件

跳转到conf文件目录下

cd /opt/softs/hive3.1.2/conf/

1、添加hive-site.xml

将hive-site.xml上传至/opt/softs/hive3.1.2/conf目录下

tips:注意先修改文件中的密码

2、添加core-site.xml

打开hadoop中core-site.xml文件

vim /opt/softs/hadoop3.1.3/etc/hadoop/core-site.xml

在文件末端加入如下配置:

  <!-- 安装hive时 在hadoop中core-site.xml中添加如下配置 -->
    <!-- 从任何主机登录的root用户可以伪装成一个属于任何group的用户 -->   

   <property>
        <name>hadoop.proxyuser.root.hosts</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.root.groups</name>
        <value>*</value>
    </property>

3、将修改同步到另外两台虚拟机

跳转目录,记得另外两个节点也要打开

cd /opt/softs/hadoop3.1.3/etc/hadoop/

同步文件 

scp core-site.xml root@bigdata04:/opt/softs/hadoop3.1.3/etc/hadoop/
scp core-site.xml root@bigdata05:/opt/softs/hadoop3.1.3/etc/hadoop/

五、初始化Hive的元数据库

1、开启hadoop集群

参考:分布式hadoop集群访问web服务_hadoop配置web-CSDN博客开启节点

2、开启MySQL并连接数据库

systemctl start mysqld
mysql -uroot -p

(输入刚刚设置后的mysql密码)

3、再打开一个新窗口,跳转到hive的bin目录下,并输入如下代码

cd /opt/softs/hive3.1.2/bin
schematool -dbType mysql -initSchema

4、在原虚拟机上查看数据库

show databases;

use hive;
show tables;

5、关闭hdfs的安全模式

hadoop dfsadmin -safemode leave

此时,可输入hive启动,Ctrl+c退出


原文地址:https://blog.csdn.net/weixin_66158110/article/details/140193823

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!