阿里云文档 2025-02-08

如何使用flink-dts-connector文件

完成数据订阅通道的配置后,您可以使用flink-dts-connector文件消费通道中的数据,用于Flink客户端消费。本文介绍如何使用flink-dts-connector文件。

问答 2024-06-03 来自:开发者社区

Flink消费kafka怎么写ORC文件

Flink消费kafka怎么写ORC文件

阿里云文档 2024-05-30

使用Flink访问LindormDFS

本文介绍使用自建的Apache Flink访问LindormDFS。

问答 2023-04-23 来自:开发者社区

Flink中ORC文件,HIVE怎么去建表,有知道吗?

Flink中ORC文件,HIVE怎么去建表,有知道吗?

问答 2021-12-07 来自:开发者社区

使用flink sql写到orc文件,以后,flink能读取出来

使用flink sql写到orc文件,以后,flink能读取出来,但是spark和hive均不能读取出来,impala能读取。 *来自志愿者整理的flink邮件归档

问答 2021-12-01 来自:开发者社区

Flink 消费kafka ,怎么写ORC文件?

【现状如下】 Flink Job消费kafka消息,每半个小时将消费到的消息进行一系列聚合操作(flink 窗口聚合),然后写入一个orc文件。 据了解,flink写orc的桶分配策略[1],有两种: 一种是基于时间,即按时间为目录创建orc文件。[test/realtime/ : 为根目录] test/realtime/ └── 2021-03-23--07 ├── part-0-0.o...

问答 2019-08-23 来自:开发者社区

Apache Flink使用Stream的方式写Apache ORC格式的文件到OSS可以实现吗?

当前场景想把部分数据通过Apache Flink Streaming de方式写入到OBS.格式为ORC。 有什么实现的方案吗? 例如,五分钟创建一次?或者X条写一次?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

实时计算 Flink

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

+关注
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等