阿里云文档 2025-03-26

对产出的用户画像数据进行数据质量监控

本文将以ods_user_info_d_starrocks表为例,演示如何通过数据质量模块的强/弱规则配置(表行数非0强校验和业务主键唯一性弱校验),在每日调度任务中实时拦截源数据缺失或主键重复异常,从而保障用户信息同步作业的下游计算可靠性。您可以参考以下内容,在数据质量模块中完成对表数据质量的监控操作。

阿里云文档 2025-03-26

对产出的用户画像数据进行数据质量监控

本文将以ods_user_info_d_spark表为例,演示如何通过数据质量模块的强/弱规则配置(表行数非0强校验和业务主键唯一性弱校验),在每日调度任务中实时拦截源数据缺失或主键重复异常,从而保障用户信息同步作业的下游计算可靠性。您可以参考以下内容,在数据质量模块中完成对表数据质量的监控操作。

阿里云文档 2025-03-26

对产出的用户画像数据进行数据质量监控

本文将以ods_user_info_d_spark表为例,演示如何通过数据质量模块的强/弱规则配置(表行数非0强校验和业务主键唯一性弱校验),在每日调度任务中实时拦截源数据缺失或主键重复异常,从而保障用户信息同步作业的下游计算可靠性。您可以参考以下内容,在数据质量模块中完成对表数据质量的监控操作。

阿里云文档 2025-03-21

用户画像分析案例同步数据-基于新版数据开发和Spark计算资源

本文将介绍如何创建HttpFile和MySQL数据源以访问用户信息和网站日志数据,配置数据同步链路将这些数据同步到在环境准备阶段创建的OSS存储中,并通过创建Spark外表解析OSS中存储的数据。通过查询验证数据同步结果,确认是否完成整个数据同步操作。

阿里云文档 2025-03-14

用户画像分析案例加工数据-基于新版数据开发和Spark计算资源

本文为您介绍如何用Spark SQL创建外部用户信息表ods_user_info_d_spark以及日志信息表ods_raw_log_d_spark访问存储在私有OSS中的用户与日志数据,通过DataWorks的EMR Spark SQL节点进行加工得到目标用户画像数据,阅读本文后,您可以了解如何通过Spark SQL来计算和分析已同步的数据,完成数仓简单数据加工场景。

文章 2024-10-15 来自:开发者社区

大数据-159 Apache Kylin 构建Cube 准备和测试数据(一)

点一下关注吧!!!非常感谢!!持续更新!!! 目前已经更新到了: Hadoop(已更完) HDFS(已更完) MapReduce(已更完) Hive(已更完) Flume(已更完) Sqoop(已更完) Zookeeper(已更完) HBase(已更完) Redis (已更完) Kafka(已更完) ...

大数据-159 Apache Kylin 构建Cube 准备和测试数据(一)
文章 2024-10-15 来自:开发者社区

大数据-159 Apache Kylin 构建Cube 准备和测试数据(二)

接上篇:https://developer.aliyun.com/article/1623254?spm=a2c6h.13148508.setting.18.66e24f0etlssu8 dim_product_data # 设置参数 output_file = 'dim_pro...

大数据-159 Apache Kylin 构建Cube 准备和测试数据(二)
文章 2023-03-25 来自:开发者社区

【大数据开发运维解决方案】Kylin消费Kafka数据流式构建cube

文章开始之前先说明环境情况,这里kylin消费的kafka数据是从Oracle 数据库用Ogg For Bigdata以json格式将数据投递到kafka topic的,投递的时候,关于insert和update 之前的数据投递到名为 ZTVOUCHER_INS 的topic,而delete和update之后的数据投递到名为 ZTVOUCHER_DEL 的topic中,这里主要介绍kylin如何....

【大数据开发运维解决方案】Kylin消费Kafka数据流式构建cube

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxCompute数据相关内容

云原生大数据计算服务 MaxCompute更多数据相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

大数据计算 MaxCompute

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

+关注