创建Hive Catalog
配置Hive Catalog后,您可以在Flink开发控制台直接读取Hive元数据,无需再手动注册Hive表,提高作业开发的效率且保证数据的正确性。本文为您介绍如何配置Hive元数据、创建和使用Hive Catalog等。
Flink Hive SQL作业快速入门
实时计算Flink版支持使用Hive方言创建批处理作业,通过兼容Hive SQL语法增强与Hive互操作性,便于从现有Hive作业平滑迁移至实时计算管理控制台。
注册Hive Kerberos集群
在实时计算控制台上注册Hive Kerberos集群信息后,可以访问支持Kerberos的Hive。本文为您介绍如何注册Hive Kerberos集群。
Flink报错问题之使用hive udf函数报错如何解决
问题一:用flink 1.11.2 查询hive表自关联(self inner join) 结果不正确 我用相同的一个表自己 inner join 自己,取不同时间点,得到相同值 sql是这样,p5m 和 p0m 都是 snmpprobe.p_snmp_ifxtable 表,时间不同 select p0m.coltime, p0m.ifhcinoctets a, p0m.ifhc...
Flink sql将数组炸开,实现hive的explode函数的效果,还有什么其他好的方式?
Flink sql将数组炸开,实现hive的explode函数的效果,除了用cross join的方式以外,还有什么其他好的方式?
flink1.10中hive module 没有plus,greaterThan等函数是什么原因?
Hi all, 我在使用flink1.10的sql-client时候发现使用hive module时会缺少某些core module 中的build-in function比如plus,greaterThan。这会导致同样的sql core module可以执行成功,hive module却会报错,比如在使用row_number() over()时候。这是什么原因? *来自志愿者整理的flin.....
flink使用hive udf函数会报错
Flink-1.11.1, hive-2.2.0 在使用current_timestamp或者current_date函数时会报 Caused by: java.lang.NullPointerException at org.apache.hadoop.hive.ql.udf.generic.GenericUDFCurrentTimestamp.initialize(GenericUDFCur....
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。