阿里云文档 2025-05-22

如何使用新版Flink Connector将数据写入MaxCompute,有哪些参数

MaxCompute提供了新版Flink Connector插件,支持将Flink数据写入至MaxCompute的普通表和Delta Table类型表,以提高Flink数据写入MaxCompute的便捷性。本文为您介绍新版Flink Connector写入MaxCompute的能力支持情况与主要操作流程。

阿里云文档 2025-03-28

Flink CDC写入MaxCompute

MaxCompute为您提供对接Flink CDC的新版插件Connector连接器。您可以通过对接Flink CDC,将数据源(例如MySQL)数据实时同步至MaxCompute的目标表(普通表或Delta表)。本文为您介绍MaxCompute新版插件的能力支持情况与主要操作流程。

阿里云文档 2025-03-13

Table/SQL & DataStream JAR作业迁移

本文为您介绍如何将开源自建Flink集群的JAR作业迁移至阿里云实时计算Flink版。

文章 2022-11-12 来自:开发者社区

【Flink-API】Table API & SQL 以及自定义UDF函数

一、 Flink Table API & SQL简介1.1 Table API & SQL的背景Flink虽然已经拥有了强大的DataStream/DataSet API,而且非常的灵活,但是需要熟练使用Eva或Scala的编程Flink编程API编写程序,为了满足流计算和批计算中的各种场景需求,同时降低用户使用门槛,Flink供- -种关系型的API来实现流与批的统一,那么这就....

【Flink-API】Table API & SQL 以及自定义UDF函数
问答 2021-12-07 来自:开发者社区

FLINK TABLE API 自定义聚合函数UDAF从check point恢复任务报状态序列

大家好:我在使用flink table api 实现group by 聚合操作的时候,自定义了一个UDAF函数,首次在集群上运行的时候是正确的,但是从check point恢复任务的时候报下面错误,但是使用内置的函数就没问题,不知道我该怎么解决呢? java.lang.RuntimeException: Error while getting state at org.apache.flink.....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问