阿里云文档 2025-06-04

同工作空间批量发布任务

DataWorks支持将需要发布的对象(节点、函数、资源、组件等)批量添加至发布包,统一发布。本文为您介绍同工作空间发布场景下如何创建及发布待发布包。

阿里云文档 2025-05-30

MySQL到MaxCompute的Serverless整库实时任务

本文介绍MySQL到MaxCompute的Serverless整库实时任务。

阿里云文档 2025-03-31

查看任务运行历史记录

DataWorks的运行历史面板展示您最近三天在数据开发界面的任务执行记录。

阿里云文档 2025-03-14

新版Data Studio任务发布

本文为您介绍如何通过发布流程将任务的新增、更新、删除操作发布至生产环境。

阿里云文档 2025-02-28

创建PyODPS 2节点任务

DataWorks提供了PyODPS 2节点类型,允许您使用PyODPS语法在DataWorks平台上开发PyODPS任务。PyODPS集成了MaxCompute的Python SDK,使您能够在PyODPS 2节点上直接编写和编辑Python代码来操作MaxCompute。

问答 2023-07-16 来自:开发者社区

DataWorks中Maxcompute任务报错,报错信息见文件?

DataWorks中Maxcompute任务报错,报错信息见文件?

问答 2023-07-16 来自:开发者社区

DataWorks中Maxcompute任务报错,报错信息见文件是什么?

DataWorks中Maxcompute任务报错,报错信息见文件是什么?

问答 2022-04-15 来自:开发者社区

用odps client跑mapreduce任务失败,报错如下,多进程后台同时起几个任务,resource文件用的是同一个,有些任务成功,有些任务失败

用odps client跑mapreduce任务失败,报错如下,多进程后台同时起几个任务,resource文件用的是同一个,有些任务成功,有些任务失败,FAILED: Copy file to shared cache failed: PanguOpen4Read4R PANGU_FILE_NOT_FOUND...

问答 2017-07-18 来自:开发者社区

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构 1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现 2.是否支持其他的数据工具,如何跑基于spark的任务

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现2.是否支持其他的数据工具,如何跑基于spark的任务

问答 2017-07-18 来自:开发者社区

您好,我有一个MaxCompute(原ODPS) mr任务是在前端触发运行的,每次手动触发以后会服务器的odps cmd里执行mr任务,我需要在reduce 的setup中读取一个配置文件,我把这个配置文件作为资源上传到odps之后,是否需要在服务器也存一份该文件。

您好,我有一个MaxCompute(原ODPS) mr任务是在前端触发运行的,每次手动触发以后会服务器的odps cmd里执行mr任务,我需要在reduce 的setup中读取一个配置文件,我把这个配置文件作为资源上传到odps之后,是否需要在服务器也存一份该文件。

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxCompute任务相关内容

云原生大数据计算服务 MaxCompute更多任务相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

阿里巴巴大数据计算

阿里大数据官方技术圈

+关注