阿里云文档 2025-04-09

在PySpark程序中使用Python第三方库

PySpark作业往往需要借助Python第三方库来增强数据处理和分析能力。本文档详细介绍了如何利用Conda和PEX这两种方法,有效地将这些库集成到Serverless Spark环境中,确保作业在分布式计算场景下的稳定性和灵活性。

阿里云文档 2025-03-26

如何创建基于MaxCompute引用Python脚本的Spark任务

概述本文为您介绍Dataphin如何创建基于MaxCompute引用Python脚本的Spark任务。详细信息1.编写Python脚本(注:脚本中需根据Spark版本初始化Spark context,详情可参考MaxCompute关于PySpark的官方文档)2.上传该Python脚本至Dataph...

阿里云文档 2024-12-19

如何在DataWorks上调用Python的API运行Spark作业。

PySpark可直接调用Python的API运行Spark作业,PySpark作业需在特定Python环境中运行。EMR默认支持使用Python,若EMR支持的Python版本无法运行PySpark作业,则您可参考本实践配置可用的Python环境并在DataWorks上运行PySpark作业。

阿里云文档 2024-07-30

通过Python SDK开发Spark应用

本文主要介绍如何通过Python SDK提交Spark作业、查询Spark作业的状态和日志信息、结束Spark作业以及查询Spark历史作业。

问答 2023-11-13 来自:开发者社区

DataWorks如何创建ODPS Spark节点创建Python资源?

DataWorks如何创建ODPS Spark节点创建Python资源?

问答 2023-07-01 来自:开发者社区

DataWorks创建ODPS Spark节点创建Python资源?

DataWorks创建ODPS Spark节点创建Python资源?

文章 2020-06-24 来自:开发者社区

DataWorks百问百答35:有哪些odps spark的主python样例?

odps spark节点不仅可以使用java代码进行数据处理,也可以使用python进行数据处理。注意:由于python资源是针对Python udf进行开发,其所能获取到的直接依赖的三方包非常有限,故而python资源使用局限性比较大,很多三方包在python资源里都没有支持,自定义添加步骤、操作繁复。python资源引用三方依赖可仿照此文档:https://yq.aliyun.com/art....

DataWorks百问百答35:有哪些odps spark的主python样例?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

Python学习站

Python学习资料大全,包含Python编程学习、实战案例分享、开发者必知词条等内容。

+关注
相关镜像