阿里云文档 2025-04-07

如何通过Flink CDC实时订阅AnalyticDB PostgreSQL的全量和增量数据

AnalyticDB for PostgreSQL提供自研的CDC连接器,基于PostgreSQL的逻辑复制功能实现订阅全量和增量数据,可与Flink无缝集成。该连接器能够高效捕获源表的实时变更数据,支持实时数据同步、流式处理等,助力企业快速响应动态数据需求。本文介绍如何通过阿里云实时计算Flink版CDC实时订阅AnalyticDB for PostgreSQL的全量和增量数据。

阿里云文档 2025-03-28

通过Flink将数据批量导入到Hologres

Hologres推出的新版Flink Connector插件,支持通过Flink将数据批量导入到Hologres,实现高效且低负载的数据导入。

阿里云文档 2025-03-26

如何使用Flink处理表格存储数据

本文为您介绍如何使用Flink计算表格存储(Tablestore)的数据,表格存储中的数据表或时序表均可作为实时计算Flink的源表或结果表进行使用。

阿里云文档 2025-02-19

使用Tablestore+Flink搭建高性能实时交易统计系统

本文为您介绍使用表格存储和Flink实现交易数据实时统计的样例场景、架构设计和实现方案。

阿里云文档 2024-08-14

清理过期数据

清理过期数据可以释放存储空间,优化资源利用并提升系统运行效率等。本文为您介绍如何清理Paimon表过期数据,包括调整快照文件过期时间、设置分区的过期时间、以及清理废弃文件。

文章 2024-07-16 来自:开发者社区

实时计算 Flink版产品使用问题之处理包含时间戳并且希望在摄取、转换或输出时考虑特定时区的CDC数据,该如何操作

问题一:flinkcdc全量+增量读mysql时怎么设置参数可以让消息中包含binlog的offset啊? flinkcdc全量+增量读mysql时怎么设置参数可以让消息中包含binlog的offset,我看获取到的消息里面只有ts_ms,精确到s的(想通过对比两个任务的binlog的offset进行任务合并) 参考答案: Flink CDC 在消费M...

实时计算 Flink版产品使用问题之处理包含时间戳并且希望在摄取、转换或输出时考虑特定时区的CDC数据,该如何操作
问答 2024-02-14 来自:开发者社区

Flink如何解决时区问题导致的数据偏移?

Flink如何解决时区问题导致的数据偏移?在不改变flink-table的schema生成逻辑的前提下,设定table.local-time-zone参数实际上也不会解决时间偏移的问题。另外,我们目前看下来由两个可以采取的方案:1. 在hologres中预先定义table schema,使用timestamp without tz进行时间保持;2. 保持原样,hologres使用系统默认时区(+....

问答 2024-02-14 来自:开发者社区

Flink时区问题导致数据时间偏移怎么办?

Flink时区问题导致数据时间偏移怎么办?底层原因是因为CTAS中生成flink-table的schema中对应的时间列缺失了时区信息(使用timestamp类型),对吗?该列数据进入hologres时,如果holohologres中使用timestamp with tz 进行列定义,会在同样的时间上加上对于的时区信息,从而导致了数据时间偏移的情况发生。

问答 2023-08-29 来自:开发者社区

请问Flink CDC时区问题怎么解决,现在读过来的数据+8,有不重写解析器的方法吗?

请问Flink CDC时区问题怎么解决,现在读过来的数据+8,有不重写解析器的方法吗?

问答 2023-05-01 来自:开发者社区

Flink CDC中你那个时区问题怎么解决的呀,我这边mysql中 timestamp 类型的数据,

Flink CDC中你那个时区问题怎么解决的呀,我这边mysql中 timestamp 类型的数据,用mysql 客户端查询没有问题,但是用 cdc 导出来 就差8小时,怎么办?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等