【分布式数据仓库Hive】HivQL的使用
目录
5. 创建一个学生数据库Stus,在其中创建一个内部表Student,表格包含两列:学号(字符型),姓名(字符型)
6. 修改表student表结构,添加新的一列:年龄,整数型
7. 创建一个表格名为employees,列名和数据类型根据常用习惯系定义,其表结构能载入如下格式的数据,并映射为表结构对应的字段。
一、Hive的基本操作
1. 使用Hive创建数据库test
create database test;
show databases; //查看数据库
2. 检索数据库(模糊查看),检索形如’te*’的数据库
show database like 'te*';
3. 查看数据库test详情
describe database test;
4. 删除数据库test
drop database test;
5. 创建一个学生数据库Stus,在其中创建一个内部表Student,表格包含两列:学号(字符型),姓名(字符型)
create database Stus;
use Stus;
create table student(
sno string,
sname string
);
6. 修改表student表结构,添加新的一列:年龄,整数型
alter table student add column(sage int);
7. 创建一个表格名为employees,列名和数据类型根据常用习惯系定义,其表结构能载入如下格式的数据,并映射为表结构对应的字段。
1,hengdian,1000.0,13872787890,Zhejiang
2,hengqin,1234.0,18739292798,Guangdong
3,baishui,8797.0,13490980090,Hunan
写出创建表格的语句,并使用load语句将上述数据内容载入表结构,该数据以文本文件的形式存放在本地文件系统,请自行用vi编辑器编辑。
data.txt
创建表的语法:
create table employees(
eno string,
ename string,
esal float,
phone string,
address string )
row format delimited
fields terminated by ',' ;
descripe employees;
导入本地数据语法:
load data local inpath '/home/gdpu/data.txt' into table employees;
select * from employees;
二、Sogou日志数据分析
请完成创建外部表格并关联sogou的500w数据,使用HiveQL完成下列数据分析。写出Hive语句和执行结果。
create table sogou2024 (
times string,
uid string,
keyword string,
ranks int,
orders int,
URL string )
row format delimited
fields terminated by '\t';
load data inpath 'hdfs://hadoop100:8020/sogou.500w.utf8' into table sogou2024;
select * from sogou2024 limit 10; //验证是否导入成功
1. 统计每个uid的查询次数
select uid, count(*) as cnt from sogou2024 group by uid;
下面的截图是执行结果的最后一部分,结果有135万多行。
2. 搜索关键字内容包含‘仙剑’超过三次的用户id
select uid
from sogou2024
where keyword like’%仙剑%’group by uid
having count(*) > 3 ;
运行截图 :
3. 统计不重复的uid的行数
select count(distinct uid) as unique_uid_count
from sogou2024;
运行截图:
4. 统计搜索的关键字词频,找出查询频度超过20的关键词和其频度,按照频度从高到低排列。
select keyword , count(*) as frequency
from sogou2024
group by keyword
having count(*) > 20
order by frequency desc;
运行截图:
原文地址:https://blog.csdn.net/m0_67830223/article/details/140088259
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!