大数据之Hive 函数 完整使用(第八章)

小咪咪 2022-09-11 08:20 406阅读 0赞

大数据之Hive 函数

  • 总结
    • 函数区别
  • 一、系统内置函数
    • 1)查看系统自带的函数
    • 2)显示自带的函数的用法
    • 3)详细显示自带的函数的用法
  • 二、常用内置函数(空字段赋值)
    • 1)函数说明
    • 2)数据准备
    • 3)查询方式(1)
    • 4)查询(2)
  • 三、CASE WHEN THEN ELSE END
    • 1)数据准备
    • 2)需求
    • 3)创建本地 emp_sex.txt,导入数据
    • 4)创建 hive 表并导入数据
    • 5)按需求查询数据
  • 四、行转列
    • 1)相关函数说明
    • 2)数据准备
    • 3)需求
    • 4)创建本地 constellation.txt,导入数据
    • 5)创建 hive 表并导入数据
    • 6)按需求查询数据
  • 五、列转行
    • 1)函数说明
    • 2)数据准备
    • 3)需求
    • 4)创建本地 movie.txt,导入数据
    • 5)创建 hive 表并导入数据
    • 6)按需求查询数据
  • 六、窗口函数(开窗函数)
    • 1)相关函数说明
    • 2)数据准备:name,orderdate,cost
    • 3)需求
    • 4)创建本地 business.txt,导入数据
    • 5)创建 hive 表并导入数据
    • 6)按需求查询数据
      • (1) 查询在 2017 年 4 月份购买过的顾客及总人数
      • (2) 查询顾客的购买明细及月购买总额
      • (3) 将每个顾客的 cost 按照日期进行累加
      • (4) 查看顾客上次的购买时间
      • (5) 查询前 20%时间的订单信息
  • 七、Rank
    • 1)函数说明
    • 2)数据准备
    • 3)需求
    • 4)创建本地 score.txt,导入数据
    • 5)创建 hive 表并导入数据
    • 6)按需求查询数据
      • 1、rank()
      • 2、dense_rank()
      • 3、row_number()
      • 4、每门学科的排序
  • 八、自定义函数
  • 九、自定义 UDF 函数
    • 0)需求
    • 1)创建一个 Maven 工程 Hive
    • 2)导入依赖
    • 3)创建一个类
    • 4)打成 jar 包上传到服务器/opt/module/data/myudf.jar
    • 5)将 jar 包添加到 hive 的 classpath
    • 6)创建临时函数与开发好的 java class 关联
    • 7)即可在 hql 中使用自定义的函数
  • 十、自定义 UDTF 函数
    • 0)需求
    • 1)代码实现
    • 2)打成 jar 包上传到服务器/opt/module/hive/data/myudtf.jar
    • 3)将 jar 包添加到 hive 的 classpath 下
    • 4)创建临时函数与开发好的 java class 关联
    • 5)使用自定义的函数
  • 十一 GenericUDTF 炸列多个列
    • 1、代码
    • 2)打成 jar 包上传到服务器/opt/module/hive/data/myudtf2.jar
    • 3)将 jar 包添加到 hive 的 classpath 下
    • 4)创建临时函数与开发好的 java class 关联
    • 5)使用自定义的函数
  • 其他函数的使用

总结

函数区别

  1. UDF: 一进一出 (之前是一行数据经过这个函数还是一行)、普通函数
  2. UDAF: 多进一出(类似聚合、给你好多行、给我聚合成一行、count)聚合函数
  3. UDTF: 一进多出 (类似MR 给你一行单词、类似给我切分成了多行) 炸连函数

一、系统内置函数

1)查看系统自带的函数

  1. hive> show functions;

2)显示自带的函数的用法

  1. 说是将所有的字符都转换成大写(uppercase
  2. hive (default)> desc function upper;
  3. OK
  4. tab_name
  5. upper(str) - Returns str with all characters changed to uppercase
  6. Time taken: 0.184 seconds, Fetched: 1 row(s)

3)详细显示自带的函数的用法

  1. hive> desc function extended upper;

二、常用内置函数(空字段赋值)

1)函数说明

NVL:给值为 NULL 的数据赋值,它的格式是 NVL( value,default_value)。它的功能是如
果 value 为 NULL,则 NVL 函数返回 default_value 的值,否则返回 value 的值,如果两个参数都为 NULL ,则返回 NULL。

2)数据准备

采用员工表

3)查询方式(1)

如果员工的 comm 为 NULL,则用-1 代替

  1. hive (default)> select comm,nvl(comm, -1) from emp;
  2. OK
  3. comm _c1
  4. NULL -1.0
  5. 1600.0 1600.0
  6. 500.0 500.0
  7. NULL -1.0
  8. 1400.0 1400.0
  9. NULL -1.0
  10. NULL -1.0
  11. NULL -1.0
  12. 10.0 10.0
  13. NULL -1.0
  14. NULL -1.0
  15. NULL -1.0
  16. NULL -1.0
  17. NULL -1.0
  18. NULL -1.0
  19. Time taken: 2.213 seconds, Fetched: 15 row(s)

4)查询(2)

如果员工的 comm 为 NULL,则用领导 id 代替

  1. hive (default)> select comm, nvl(comm,mgr) from emp;
  2. OK
  3. comm _c1
  4. NULL 7902.0
  5. 300.0 300.0
  6. 500.0 500.0
  7. NULL 7839.0
  8. 1400.0 1400.0
  9. NULL 7839.0
  10. NULL 7839.0
  11. NULL 7566.0
  12. NULL NULL
  13. 0.0 0.0
  14. NULL 7788.0
  15. NULL 7698.0
  16. NULL 7566.0
  17. NULL 7782.0

三、CASE WHEN THEN ELSE END

1)数据准备

在这里插入图片描述

2)需求

求出不同部门男女各多少人。结果如下:

  1. dept_Id
  2. A 2 1
  3. B 1 2

3)创建本地 emp_sex.txt,导入数据

  1. [hadoop@hadoop102 datas]$ vi emp_sex.txt
  2. 悟空 A
  3. 大海 A
  4. 宋宋 B
  5. 凤姐 A
  6. 婷姐 B
  7. 婷婷 B

4)创建 hive 表并导入数据

  1. create table emp_sex(
  2. name string,
  3. dept_id string,
  4. sex string)
  5. row format delimited fields terminated by "\t";
  6. load data local inpath '/opt/module/hive/data/emp_sex.txt' into table
  7. emp_sex;

5)按需求查询数据

  1. select
  2. dept_id,
  3. sum(case sex when '男' then 1 else 0 end) male_count,
  4. sum(case sex when '女' then 1 else 0 end) female_count
  5. from emp_sex
  6. group by dept_id;

四、行转列

1)相关函数说明

CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字
符串;

CONCAT_WS(separator, str1, str2,…):它是一个特殊形式的 CONCAT()。第一个参数剩余参
数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将
为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接
的字符串之间;

注意: CONCAT_WS must be “string or array

COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重
汇总,产生 Array 类型字段。

2)数据准备

在这里插入图片描述
在这里插入图片描述

3)需求

把星座和血型一样的人归类到一起。结果如下:

  1. 射手座,A 大海|凤姐
  2. 白羊座,A 孙悟空|猪八戒
  3. 白羊座,B 宋宋|苍老师

4)创建本地 constellation.txt,导入数据

  1. [atguigu@hadoop102 datas]$ vim person_info.txt
  2. 孙悟空 白羊座 A
  3. 大海 射手座 A
  4. 宋宋 白羊座 B
  5. 猪八戒 白羊座 A
  6. 凤姐 射手座 A
  7. 苍老师 白羊座 B

5)创建 hive 表并导入数据

  1. create table person_info(
  2. name string,
  3. constellation string,
  4. blood_type string)
  5. row format delimited fields terminated by "\t";
  6. load data local inpath "/opt/module/hive/data/person_info.txt" into table
  7. person_info;

6)按需求查询数据

  1. SELECT
  2. t1.c_b,
  3. CONCAT_WS("|",collect_set(t1.name))
  4. FROM (
  5. SELECT
  6. NAME,
  7. CONCAT_WS(',',constellation,blood_type) c_b
  8. FROM person_info
  9. )t1
  10. GROUP BY t1.c_b

五、列转行

1)函数说明

  1. EXPLODE(col):将 hive 一列中复杂的 Array 或者 Map 结构拆分成多行。

LATERAL VIEW
用法:LATERAL VIEW udtf(expression) tableAlias AS
columnAlias 解释:用于和 split, explode 等 UDTF 一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。

2)数据准备

在这里插入图片描述

3)需求

将电影分类中的数组数据展开。结果如下

  1. 《疑犯追踪》 悬疑
  2. 《疑犯追踪》 动作
  3. 《疑犯追踪》 科幻
  4. 《疑犯追踪》 剧情
  5. Lie to me 悬疑
  6. Lie to me 警匪
  7. Lie to me 动作
  8. Lie to me 心理
  9. Lie to me 剧情
  10. 《战狼 2 战争
  11. 《战狼 2 动作
  12. 《战狼 2 灾难

4)创建本地 movie.txt,导入数据

  1. [atguigu@hadoop102 datas]$ vi movie_info.txt
  2. 《疑犯追踪》 悬疑,动作,科幻,剧情
  3. Lie to me 悬疑,警匪,动作,心理,剧情
  4. 《战狼 2 战争,动作,灾难

5)创建 hive 表并导入数据

  1. create table movie_info( movie string, category string)
  2. row format delimited fields terminated by "\t";
  3. load data local inpath "/opt/module/data/movie.txt" into table

6)按需求查询数据

  1. SELECT
  2. movie, category_name
  3. FROM
  4. movie_info lateral VIEW
  5. explode(split(category,",")) movie_info_tmp AS category_name;

六、窗口函数(开窗函数)

1)相关函数说明

  1. OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化。
  2. 意思解释是:
  3. over():里面啥也没写(带表所有的数据、所有行)、
  4. select name,count(*) over() from business group by name;
  5. 有多少个name就有多少个组、每一个组对应这所有数据的总和
  6. over:里面啥也没写(所有的数据、所有行) 开出来的数据是一一对应的关系、
  7. 你有多少条、照样有多少组、只不过说相同数据中的组是一行的
  8. gropu by 是多对一,相同的数据只有一个组
  9. CURRENT ROW:当前行
  10. n PRECEDING:往前 n 行数据
  11. n FOLLOWING:往后 n 行数据
  12. UNBOUNDED:起点,
  13. UNBOUNDED PRECEDING 表示从前面的起点,
  14. UNBOUNDED FOLLOWING 表示到后面的终点
  15. LAG(col,n,default_val):往前第 n 行数据
  16. LEAD(col,n, default_val):往后第 n 行数据
  17. NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从 1 开始,对
  18. 于每一行,NTILE 返回此行所属的组的编号。注意:n 必须为 int 类型。

2)数据准备:name,orderdate,cost

  1. jack,2017-01-01,10
  2. tony,2017-01-02,15
  3. jack,2017-02-03,23
  4. tony,2017-01-04,29
  5. jack,2017-01-05,46
  6. jack,2017-04-06,42
  7. tony,2017-01-07,50
  8. jack,2017-01-08,55
  9. mart,2017-04-08,62
  10. mart,2017-04-09,68
  11. neil,2017-05-10,12
  12. mart,2017-04-11,75
  13. neil,2017-06-12,80
  14. mart,2017-04-13,94

3)需求

  1. 1)查询在 2017 4 月份购买过的顾客及总人数
  2. 2)查询顾客的购买明细及月购买总额
  3. 3)上述的场景, 将每个顾客的 cost 按照日期进行累加
  4. 4)查询每个顾客上次的购买时间
  5. 5)查询前 20%时间的订单信息

4)创建本地 business.txt,导入数据

  1. [atguigu@hadoop102 datas]$ vi business.txt

5)创建 hive 表并导入数据

  1. create table business(
  2. name string,
  3. orderdate string,
  4. cost int
  5. ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';
  6. load data local inpath "/opt/module/data/business.txt" into table
  7. business;

6)按需求查询数据

(1) 查询在 2017 年 4 月份购买过的顾客及总人数

求有几个客户、不是总次数

  1. select name,count(*) over ()
  2. from business
  3. where substring(orderdate,1,7) = '2017-04'
  4. group by name;

显示

  1. Total MapReduce CPU Time Spent: 9 seconds 870 msec
  2. OK
  3. name count_window_0
  4. mart 2
  5. jack 2

(2) 查询顾客的购买明细及月购买总额

  1. select name,orderdate,cost,sum(cost) over(partition by month(orderdate))
  2. from business;

显示

  1. Total MapReduce CPU Time Spent: 5 seconds 860 msec
  2. OK
  3. name orderdate cost sum_window_0
  4. jack 2017-01-05 46 111
  5. jack 2017-01-08 55 111
  6. jack 2017-01-01 10 111
  7. jack 2017-02-03 23 23
  8. jack 2017-04-06 42 42
  9. mart 2017-04-13 94 299
  10. mart 2017-04-11 75 299
  11. mart 2017-04-09 68 299
  12. mart 2017-04-08 62 299
  13. neil 2017-05-10 12 12
  14. neil 2017-06-12 80 80
  15. tony 2017-01-04 29 94
  16. tony 2017-01-02 15 94
  17. tony 2017-01-07 50 94

(3) 将每个顾客的 cost 按照日期进行累加

  1. select name,orderdate,cost,
  2. sum(cost) over() as sample1,--所有行相加
  3. sum(cost) over(partition by name) as sample2,--按 name 分组,组内数据相加
  4. sum(cost) over(partition by name order by orderdate) as sample3,--按 name
  5. 分组,组内数据累加
  6. sum(cost) over(partition by name order by orderdate rows between
  7. UNBOUNDED PRECEDING and current row ) as sample4 ,--和 sample3 一样,由起点到
  8. 当前行的聚合
  9. sum(cost) over(partition by name order by orderdate rows between 1
  10. PRECEDING and current row) as sample5, --当前行和前面一行做聚合
  11. sum(cost) over(partition by name order by orderdate rows between 1
  12. PRECEDING AND 1 FOLLOWING ) as sample6,--当前行和前边一行及后面一行
  13. sum(cost) over(partition by name order by orderdate rows between current
  14. row and UNBOUNDED FOLLOWING ) as sample7 --当前行及后面所有行
  15. from business;

方式1

  1. select name,orderdate,cost,sum(cost) over(partition by name,order by orderdate) from business;
  2. Total MapReduce CPU Time Spent: 5 seconds 410 msec
  3. OK
  4. name orderdate cost sum_window_0
  5. jack 2017-01-01 10 10
  6. jack 2017-01-05 46 56
  7. jack 2017-01-08 55 111
  8. jack 2017-02-03 23 134
  9. jack 2017-04-06 42 176
  10. mart 2017-04-08 62 62
  11. mart 2017-04-09 68 130
  12. mart 2017-04-11 75 205
  13. mart 2017-04-13 94 299
  14. neil 2017-05-10 12 12
  15. neil 2017-06-12 80 92
  16. tony 2017-01-02 15 15
  17. tony 2017-01-04 29 44
  18. tony 2017-01-07 50 94
  19. Time taken: 32.024 seconds, Fetched: 14 row(s)

rows 必须跟在 order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分
区中的数据行数量

(4) 查看顾客上次的购买时间

  1. select name,orderdate,cost,
  2. lag(orderdate,1,'1900-01-01') over(partition by name order by orderdate )
  3. as time1, lag(orderdate,2) over (partition by name order by orderdate) as
  4. time2
  5. from business;
  6. select name,orderdate, lag(orderdate,1,orderdate) over(partition by name order by orderdate) from business;

(5) 查询前 20%时间的订单信息

  1. select * from (
  2. select name,orderdate,cost, ntile(5) over(order by orderdate) sorted
  3. from business
  4. ) t
  5. where sorted = 1;

七、Rank

1)函数说明

  1. RANK() 排序相同时会重复,总数不会变
  2. DENSE_RANK() 排序相同时会重复,总数会减少
  3. ROW_NUMBER() 会根据顺序计算

2)数据准备

在这里插入图片描述

3)需求

计算每门学科成绩排名。

4)创建本地 score.txt,导入数据

  1. [atguigu@hadoop102 datas]$ vi score.txt

5)创建 hive 表并导入数据

  1. create table score(
  2. name string,
  3. subject string,
  4. score int)
  5. row format delimited fields terminated by "\t";
  6. load data local inpath '/opt/module/data/score.txt' into table score;

6)按需求查询数据

  1. select name,
  2. subject,
  3. score,
  4. rank() over(partition by subject order by score desc) rp,
  5. dense_rank() over(partition by subject order by score desc) drp,
  6. row_number() over(partition by subject order by score desc) rmp
  7. from score;
  8. name subject score rp drp rmp
  9. 孙悟空 数学 95 1 1 1
  10. 宋宋 数学 86 2 2 2
  11. 婷婷 数学 85 3 3 3
  12. 大海 数学 56 4 4 4
  13. 宋宋 英语 84 1 1 1
  14. 大海 英语 84 1 1 2
  15. 婷婷 英语 78 3 2 3
  16. 孙悟空 英语 68 4 3 4
  17. 大海 语文 94 1 1 1
  18. 孙悟空 语文 87 2 2 2
  19. 婷婷 语文 65 3 3 3
  20. 宋宋 语文 64 4 4 4

扩展:求出每门学科前三名的学生?

1、rank()

排序相同时会重复,总数不会变

  1. select * ,rank() over(order by score) from score;
  2. Total MapReduce CPU Time Spent: 3 seconds 130 msec
  3. OK
  4. score.name score.subject score.score rank_window_0
  5. 大海 数学 56 1
  6. 宋宋 语文 64 2
  7. 婷婷 语文 65 3
  8. 孙悟空 英语 68 4
  9. 婷婷 英语 78 5
  10. 宋宋 英语 84 6
  11. 大海 英语 84 6
  12. 婷婷 数学 85 8
  13. 宋宋 数学 86 9
  14. 孙悟空 语文 87 10
  15. 大海 语文 94 11
  16. 孙悟空 数学 95 12

2、dense_rank()

排序相同时会重复,总数会减少

  1. select * ,dense_rank() over(order by score) from score;
  2. score.name score.subject score.score dense_rank_window_0
  3. 大海 数学 56 1
  4. 宋宋 语文 64 2
  5. 婷婷 语文 65 3
  6. 孙悟空 英语 68 4
  7. 婷婷 英语 78 5
  8. 宋宋 英语 84 6
  9. 大海 英语 84 6
  10. 婷婷 数学 85 7
  11. 宋宋 数学 86 8
  12. 孙悟空 语文 87 9
  13. 大海 语文 94 10
  14. 孙悟空 数学 95 11
  15. Time taken: 18.061 seconds, Fetched: 12 row(s)

3、row_number()

会根据顺序计算

  1. select * ,row_number() over(order by score) from score;
  2. ```java
  3. score.name score.subject score.score row_number_window_0
  4. 大海 数学 56 1
  5. 宋宋 语文 64 2
  6. 婷婷 语文 65 3
  7. 孙悟空 英语 68 4
  8. 婷婷 英语 78 5
  9. 宋宋 英语 84 6
  10. 大海 英语 84 7
  11. 婷婷 数学 85 8
  12. 宋宋 数学 86 9
  13. 孙悟空 语文 87 10
  14. 大海 语文 94 11
  15. 孙悟空 数学 95 12
  16. Time taken: 24.1 seconds, Fetched: 12 row(s)

4、每门学科的排序

  1. select *,rank() over(partition by subject order by score) from score;
  2. score.name score.subject score.score rank_window_0
  3. 大海 数学 56 1
  4. 婷婷 数学 85 2
  5. 宋宋 数学 86 3
  6. 孙悟空 数学 95 4
  7. 孙悟空 英语 68 1
  8. 婷婷 英语 78 2
  9. 宋宋 英语 84 3
  10. 大海 英语 84 3
  11. 宋宋 语文 64 1
  12. 婷婷 语文 65 2
  13. 孙悟空 语文 87 3
  14. 大海 语文 94 4
  15. Time taken: 25.578 seconds, Fetched: 12 row(s

求每门学科前三名
select *,rank() over(partition by subject order by score desc

  1. select
  2. name,
  3. subject,
  4. score
  5. from (select *,rank() over(partition by subject order by score desc) rk
  6. from score) t1
  7. where rk<=3

八、自定义函数

1)Hive 自带了一些函数,比如:max/min 等,但是数量有限,自己可以通过自定义 UDF 来
方便的扩展。

2)当 Hive 提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义
函数(UDF:user-defined function)。

3)根据用户自定义函数类别分为以下三种:

(1)UDF(User-Defined-Function)一进一出
(2)UDAF(User-Defined Aggregation Function)聚集函数,多进一出
类似于:count/max/min
(3)UDTF(User-Defined Table-Generating Functions)
一进多出如 lateral view explode()

4)官方文档地址
https://cwiki.apache.org/confluence/display/Hive/HivePlugins

5)编程步骤:
(1)继承 Hive 提供的类
org.apache.hadoop.hive.ql.udf.generic.GenericUDF
org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
(2)实现类中的抽象方法
(3)在 hive 的命令行窗口创建函数添加 jar
add jar linux_jar_path创建 function
create [temporary] function [dbname.]function_name AS class_name;
(4)在 hive 的命令行窗口删除函数
drop [temporary] function [if exists] [dbname.]function_name;

九、自定义 UDF 函数

0)需求

自定义一个 UDF 实现计算给定字符串的长度,例如:

  1. hive(default)> select my_len("abcd"); 4

1)创建一个 Maven 工程 Hive

2)导入依赖

  1. <dependencies>
  2. <dependency>
  3. <groupId>org.apache.hive</groupId>
  4. <artifactId>hive-exec</artifactId>
  5. <version>3.1.2</version>
  6. </dependency>
  7. </dependencies>

3)创建一个类

  1. package org.example.udf;
  2. import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
  3. import org.apache.hadoop.hive.ql.metadata.HiveException;
  4. import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
  5. import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
  6. import org.apache.hadoop.hive.serde2.objectinspector.PrimitiveObjectInspector;
  7. import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;
  8. /** * @ClassName MyUDF * @Author 小坏 * @Date 2021/9/23、11:34 * @Version 1.0 */
  9. public class MyUDF extends GenericUDF {
  10. /** * 校验数据参数个数 * * @param objectInspectors * @return * @throws UDFArgumentException */
  11. @Override
  12. public ObjectInspector initialize(ObjectInspector[] objectInspectors) throws UDFArgumentException {
  13. if (objectInspectors.length != 1) {
  14. throw new UDFArgumentException("参数个数不为1");
  15. }
  16. //返回类型是INT类型
  17. return PrimitiveObjectInspectorFactory.javaIntObjectInspector;
  18. }
  19. /** * 处理数据的方法 * * @param deferredObjects * @return * @throws HiveException */
  20. @Override
  21. public Object evaluate(DeferredObject[] deferredObjects) throws HiveException {
  22. //1、取出输入数据
  23. String input = deferredObjects[0].toString();
  24. //防止为null
  25. if (input == null) {
  26. return 0;
  27. }
  28. //返回长度
  29. return input.length();
  30. }
  31. @Override
  32. public String getDisplayString(String[] strings) {
  33. return "";
  34. }
  35. }

4)打成 jar 包上传到服务器/opt/module/data/myudf.jar

5)将 jar 包添加到 hive 的 classpath

  1. hive (default)> add jar /opt/module/data/myudf.jar;
  2. Added [/opt/module/hive-3.1.2/lib/demo-hive-1.0-SNAPSHOT.jar] to class path
  3. Added resources: [/opt/module/hive-3.1.2/lib/demo-hive-1.0-SNAPSHOT.jar]

6)创建临时函数与开发好的 java class 关联

  1. hive (default)> create temporary function my_len as "com.atguigu.hive. MyStringLength";

7)即可在 hql 中使用自定义的函数

  1. hive (default)> select ename,my_len(ename) ename_len from emp;

十、自定义 UDTF 函数

0)需求

自定义一个 UDTF 实现将一个任意分割符的字符串切割成独立的单词,例如:

  1. hive(default)> select myudtf("hello,world,hadoop,hive", ",");
  2. hello
  3. world
  4. hadoop
  5. hive

1)代码实现

  1. package com.atguigu.udtf;
  2. import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
  3. import org.apache.hadoop.hive.ql.metadata.HiveException;
  4. import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
  5. import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
  6. import
  7. org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
  8. import
  9. org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
  10. import
  11. org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectIn
  12. spectorFactory;
  13. import java.util.ArrayList;
  14. import java.util.List;
  15. public class MyUDTF extends GenericUDTF {
  16. private ArrayList<String> outList = new ArrayList<>();
  17. @Override
  18. public StructObjectInspector initialize(StructObjectInspector argOIs)
  19. throws UDFArgumentException {
  20. //1.定义输出数据的列名和类型
  21. List<String> fieldNames = new ArrayList<>();
  22. List<ObjectInspector> fieldOIs = new ArrayList<>();
  23. //2.添加输出数据的列名和类型
  24. fieldNames.add("lineToWord");
  25. fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
  26. return
  27. ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames,
  28. fieldOIs);
  29. }
  30. @Override
  31. public void process(Object[] args) throws HiveException {
  32. //1.获取原始数据
  33. String arg = args[0].toString();
  34. //2.获取数据传入的第二个参数,此处为分隔符
  35. String splitKey = args[1].toString();
  36. //3.将原始数据按照传入的分隔符进行切分
  37. String[] fields = arg.split(splitKey);
  38. //4.遍历切分后的结果,并写出
  39. for (String field : fields) {
  40. //集合为复用的,首先清空集合
  41. outList.clear();
  42. //将每一个单词添加至集合
  43. outList.add(field);
  44. //将集合内容写出
  45. forward(outList);
  46. }
  47. }
  48. @Override
  49. public void close() throws HiveException {
  50. } }

2)打成 jar 包上传到服务器/opt/module/hive/data/myudtf.jar

3)将 jar 包添加到 hive 的 classpath 下

  1. hive (default)> add jar /opt/module/hive/data/myudtf.jar;

4)创建临时函数与开发好的 java class 关联

  1. hive (default)> create temporary function myudtf as
  2. "com.atguigu.hive.MyUDTF";

5)使用自定义的函数

  1. hive (default)> select myudtf("hello,world,hadoop,hive",",");

十一 GenericUDTF 炸列多个列

1、代码

  1. package org.example.udf;
  2. import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
  3. import org.apache.hadoop.hive.ql.metadata.HiveException;
  4. import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
  5. import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
  6. import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
  7. import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
  8. import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;
  9. import java.util.ArrayList;
  10. import java.util.List;
  11. /** * @ClassName UDTF2 * @Author 小坏 * @Date 2021/9/24、20:12 * @Version 1.0 * * * 输入数据:hello,atguigu:hello,hive * * 输出数据 * * hello atguigu * * hello hive */
  12. public class MyUDTF2 extends GenericUDTF {
  13. //输出数据的集合
  14. private ArrayList<String> outPutList = new ArrayList<>();
  15. /** * 初始化方法 * 炸裂出来多个列、所以是集合 * * @param argOIs * @return * @throws UDFArgumentException */
  16. @Override
  17. public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {
  18. //输出数据的默认列名、可以别名覆盖
  19. //两个列
  20. List<String> fieldNames = new ArrayList<>();
  21. fieldNames.add("word1");
  22. fieldNames.add("word2");
  23. //输出数据的类型
  24. List<ObjectInspector> fieldOIs = new ArrayList<>();
  25. //类型校验器两个
  26. fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
  27. fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
  28. //最终返回值
  29. return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs);
  30. }
  31. @Override
  32. public void process(Object[] args) throws HiveException {
  33. //取出输入数据
  34. String input = args[0].toString();
  35. //按照,分割字符串 输入数据:hello,atguigu:hello,hive 冒号分隔
  36. String[] fields = input.split(":");
  37. for (String field : fields) {
  38. //清空集合
  39. outPutList.clear();
  40. //将field按照,分割
  41. String[] words = field.split(",");
  42. outPutList.add(words[0]);
  43. outPutList.add(words[1]);
  44. //写出数据
  45. forward(outPutList);
  46. }
  47. //遍历数据写出
  48. }
  49. @Override
  50. public void close() throws HiveException {
  51. }
  52. }

2)打成 jar 包上传到服务器/opt/module/hive/data/myudtf2.jar

3)将 jar 包添加到 hive 的 classpath 下

  1. hive (default)> add jar /opt/module/hive/data/myudtf2.jar;

4)创建临时函数与开发好的 java class 关联

  1. create temporary function my_udtf2 AS "org.example.udf.MyUDTF2"

5)使用自定义的函数

  1. hive (default)> select my_udtf2 (words) from udtf2;
  2. OK
  3. word1 word2
  4. hello atguigu
  5. hello hive
  6. Time taken: 0.117 seconds, Fetched: 2 row(s)
  7. hive (default)>

其他函数的使用

  1. 常用日期函数
  2. unix_timestamp:返回当前或指定时间的时间戳
  3. select unix_timestamp();
  4. select unix_timestamp("2020-10-28",'yyyy-MM-dd');
  5. from_unixtime:将时间戳转为日期格式
  6. select from_unixtime(1603843200);
  7. current_date:当前日期
  8. select current_date;
  9. current_timestamp:当前的日期加时间
  10. select current_timestamp;
  11. to_date:抽取日期部分
  12. select to_date('2020-10-28 12:12:12');
  13. year:获取年
  14. select year('2020-10-28 12:12:12');
  15. month:获取月
  16. select month('2020-10-28 12:12:12');
  17. day:获取日
  18. select day('2020-10-28 12:12:12');
  19. hour:获取时
  20. select hour('2020-10-28 12:12:12');
  21. minute:获取分
  22. select minute('2020-10-28 12:12:12');
  23. second:获取秒
  24. select second('2020-10-28 12:12:12');
  25. weekofyear:当前时间是一年中的第几周
  26. select weekofyear('2020-10-28 12:12:12');
  27. dayofmonth:当前时间是一个月中的第几天
  28. select dayofmonth('2020-10-28 12:12:12');
  29. months_between 两个日期间的月份 前面日期减后面
  30. select months_between('2020-04-01','2020-10-28');
  31. add_months:日期加减月
  32. select add_months('2020-10-28',-3);
  33. datediff:两个日期相差的天数
  34. select datediff('2020-11-04','2020-10-28');
  35. date_add:日期加天数
  36. select date_add('2020-10-28',4);
  37. date_sub:日期减天数
  38. select date_sub('2020-10-28',-4);
  39. last_day:日期的当月的最后一天
  40. select last_day('2020-02-30');
  41. date_format(): 格式化日期
  42. select date_format('2020-10-28 12:12:12','yyyy/MM/dd HH:mm:ss');
  43. 常用取整函数
  44. round 四舍五入
  45. select round(3.14);
  46. select round(3.54);
  47. ceil 向上取整
  48. select ceil(3.14);
  49. select ceil(3.54);
  50. floor 向下取整
  51. select floor(3.14);
  52. select floor(3.54);
  53. 常用字符串操作函数
  54. upper 转大写
  55. select upper('low');
  56. lower 转小写
  57. select lower('low');
  58. length 长度
  59. select length("atguigu");
  60. trim 前后去空格
  61. select trim(" atguigu ");
  62. lpad 向左补齐,到指定长度
  63. select lpad('atguigu',9,'g');
  64. rpad 向右补齐,到指定长度
  65. select rpad('atguigu',9,'g');
  66. regexp_replace:使用正则表达式匹配目标字符串,匹配成功后替换!
  67. SELECT regexp_replace('2020/10/25', '/', '-');
  68. 集合操作
  69. size 集合中元素的个数
  70. select size(friends) from test3;
  71. map_keys 返回map中的key
  72. select map_keys(children) from test3;
  73. map_values: 返回map中的value
  74. select map_values(children) from test3;
  75. array_contains: 判断array中是否包含某个元素
  76. select array_contains(friends,'bingbing') from test3;
  77. sort_array array中的元素排序
  78. select sort_array(friends) from test3;
  79. grouping_set:多维分析
  80. select deptid,gender,count(*) from staff group by deptid,gender grouping sets((deptid,gender),deptid,gender,());
  81. Total MapReduce CPU Time Spent: 7 seconds 730 msec
  82. OK
  83. deptid gender _c2
  84. NULL NULL 5
  85. 10 NULL 1
  86. 20 NULL 2
  87. 30 NULL 2
  88. NULL feale 1
  89. 20 feale 1
  90. NULL female 2
  91. 10 female 1
  92. 30 female 1
  93. NULL male 2
  94. 20 male 1
  95. 30 male 1

发表评论

表情:
评论列表 (有 0 条评论,406人围观)

还没有评论,来说两句吧...

相关阅读