阿里云文档 2025-03-26

对产出的用户画像数据进行数据质量监控

本文将以ods_user_info_d_spark表为例,演示如何通过数据质量模块的强/弱规则配置(表行数非0强校验和业务主键唯一性弱校验),在每日调度任务中实时拦截源数据缺失或主键重复异常,从而保障用户信息同步作业的下游计算可靠性。您可以参考以下内容,在数据质量模块中完成对表数据质量的监控操作。

阿里云文档 2025-03-26

对产出的用户画像数据进行数据质量监控

本文将以ods_user_info_d_spark表为例,演示如何通过数据质量模块的强/弱规则配置(表行数非0强校验和业务主键唯一性弱校验),在每日调度任务中实时拦截源数据缺失或主键重复异常,从而保障用户信息同步作业的下游计算可靠性。您可以参考以下内容,在数据质量模块中完成对表数据质量的监控操作。

阿里云文档 2025-03-24

实时同步

DataWorks提供的实时数据同步功能支持您通过单表或整库方式,将源数据库的数据实时同步到目标数据库。您可以创建实时同步任务,灵活搭配多种输入和输出数据源,实现单表或整库数据的实时增量同步。本文为您介绍如何创建单表或整库增量数据实时同步任务,并在创建完成后查看任务运行情况。

阿里云文档 2025-03-21

用户画像分析案例同步数据-基于新版数据开发和Spark计算资源

本文将介绍如何创建HttpFile和MySQL数据源以访问用户信息和网站日志数据,配置数据同步链路将这些数据同步到在环境准备阶段创建的OSS存储中,并通过创建Spark外表解析OSS中存储的数据。通过查询验证数据同步结果,确认是否完成整个数据同步操作。

阿里云文档 2025-03-14

用户画像分析案例加工数据-基于新版数据开发和Spark计算资源

本文为您介绍如何用Spark SQL创建外部用户信息表ods_user_info_d_spark以及日志信息表ods_raw_log_d_spark访问存储在私有OSS中的用户与日志数据,通过DataWorks的EMR Spark SQL节点进行加工得到目标用户画像数据,阅读本文后,您可以了解如何通过Spark SQL来计算和分析已同步的数据,完成数仓简单数据加工场景。

问答 2024-01-22 来自:开发者社区

DataWorks中odps查询报错?

DataWorks中odps查询报错? com.alipay.dsgclient.sdk.dsg.MetaDesensRepo.fetchRemoteMetaDesensRepo error

问答 2023-12-30 来自:开发者社区

DataWorks在做selelct 查询存储在maxcompute中的表的时候,报错?

DataWorks在做selelct 查询存储在maxcompute中的表的时候,报错?

问答 2023-12-23 来自:开发者社区

DataWorks配置ES离线同步到odps , 他一直报这个日期转型报错, 这个咋整?

"DataWorks配置ES离线同步到odps , 他一直报这个日期转型报错, 可是配置里面又没有能让我选择日期转形的配置 ,这个咋整? 是不是只能用脚本模式配置?"

问答 2023-12-03 来自:开发者社区

DataWorks采用阿里flink写入maxcompute,拉取依赖的时候报错了?

DataWorks采用阿里flink写入maxcompute,拉取依赖的时候报错了?这个是什么问题呀?

问答 2023-11-20 来自:开发者社区

dataworks 同步es数据到maxcompute 这个报错是什么问题?

dataworks 同步es数据到maxcompute 这个报错是什么问题?exception occurs:path=[/di/getTableColumn],remoteMessage=[获取表列信息失败!: index type is need! 数据源名: es_prod 资源组: ytam_dataworks_job_01 . Error code: GET_TABLE_COLUMN_....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxComputedataworks相关内容

云原生大数据计算服务 MaxCompute更多dataworks相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

大数据计算 MaxCompute

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

+关注