阿里云文档 2025-01-14

使用Spark Operator运行Spark作业

Apache Spark是一种专门用于大规模数据处理的计算引擎,广泛应用于数据分析和机器学习等场景。Spark Operator提供了一种在Kubernetes集群中自动化部署Spark作业和管理其生命周期的能力。本文介绍如何在ACK集群中使用Spark Operator运行Spark作业,帮助数据工程师快速高效地运行和管理大数据处理作业。

阿里云文档 2024-11-07

使用BestEffort实例运行Spark应用

阿里云容器计算服务 ACS(Container Compute Service)提供了Serverless形态的容器算力,对于大数据类型的计算任务,使用BestEffort算力质量的实例可以在满足其弹性算力需求的同时,降低任务的计算成本。本文主要为您介绍如何通过ACS提供的BestEffort实例运行Spark应用。

阿里云文档 2024-10-18

使用ECI弹性资源运行Spark作业

本文介绍如何在ACK集群中使用弹性容器实例ECI运行Spark作业。通过使用ECI弹性资源并配置合适的调度策略,您可以按需创建ECI Pod,并按资源使用量按需付费,从而有效减少资源闲置带来的成本浪费,进而更加经济高效地运行Spark作业。

阿里云文档 2024-09-23

使用ECI运行Spark作业

在Kubernetes集群中使用ECI来运行Spark作业具有弹性伸缩、自动化部署、高可用性等优势,可以提高Spark作业的运行效率和稳定性。本文介绍如何在ACK Serverless集群中安装Spark Operator,使用ECI来运行Spark作业。

问答 2024-06-19 来自:开发者社区

在emr运行spark,插入数据到paimon表报错,怎么解决?

在emr运行spark,插入数据到paimon表报错,怎么解决?org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.NullPointerException,

阿里云文档 2024-02-02

如何新建SparkSQL类型的公共节点并运行_数据资源平台(DRP)

Spark SQL节点是离线节点,运行于Spark类型的云计算资源之上,可通过输入SQL语句处理Spark类型的数据源。本文介绍如何新建Spark SQL类型的公共节点并运行。

问答 2022-02-15 来自:开发者社区

在AWS EMR中运行spark时,请使用自定义Log4J appender

我正在尝试在AWS EMR中执行spark submit来执行一个使用我编写的自定义log4j appender的简单项目。我可以通过在群集软件设置中提供以下配置来传递我的log4j属性: [{ "classification": "spark-log4j", "properties": { "log4j.appender.S": "CustomLog4JAppender", "...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注