trino 默认使用 hive catalog 去查询, 程序中使用Hadoop catalog 写
trino 默认使用 hive catalog 去查询, 程序中使用Hadoop catalog 写到iceberg的数据 无法查询,tirno 查询页面提示找不到元数据地址,由于Hadoop catalog不需要指定的。需要在trino服务里加个rest catalog类型试下。请问有trino实操经验的的老师回答一下?
有大佬遇到,sr查询hudi/hive catalog 表be节点挂掉的情况吗,这种情况怎么处理呢?
有大佬遇到,sr查询hudi/hive catalog 表be节点挂掉的情况吗,这种情况怎么处理呢?
flink cdc数据写入iceberg(在flink sql上用的hive catalog)
flink cdc数据写入iceberg(在flink sql上用的hive catalog),然后在hive上直接查询该表无数据,用flink sql可以查到数据咋办? flink 1.13.1 iceberg 1.14.1 hive2.1.1
FlinkSQL 元数据管理(使用hive的catalog)
catalog 分类⽤来保存元数据(数据库、表结构、分区、视图、函数等等),Flink也提供 了catalog,当然也可以在Flink中使⽤Hive的catalog。catalog描述GenericInMemoryCatalog基于内存的catalog(区分⼤⼩写),只有在session的⽣命周期范围内可⽤,默 认的JdbcCatalogdbcCatalog 使⽤户能够通过 JDBC 协议将 F....
直接通过kafka source table表名直接引用报错,提示hive catalog内没这张表
我这面在使用hivecatalog将kafka数据落地到hive,但现在有一个问题是,我不想保存kafka source table元数据(默认自动保存),通过创建视图或临时表的方式启动flink任务,这时候直接通过kafka source table表名直接引用报错,提示hive catalog内没这张表,这种情况我改怎么引用我的kafka未持久化表哪? *来自志愿者整理的flink邮件归档
jdk11创建hive catalog抛错
求助,jdk从8升级到11后使用hive作为flink table的catalog抛错,排查是bsTableEnv.registerCatalog(catalogName, catalog) 抛错,具体异常为: 11:55:22.343 [main] ERROR hive.log - Got exception: java.lang.ClassCastException class [Ljava....
在使用hive catalog的情况下 json format 大小写问题
hi~ 各位大佬, 由于catalog是不支持大小写 如果kafka 的数据是json格式,且某些json的key区分大小写的, 这个时候建的在hive catalog里建的kafka表的某些json字段是取不到的 flink 1.11有现成解决的方案可以解决这种问题不*来自志愿者整理的flink
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。