阿里云文档 2025-02-11

如何设置严格权限模式和Spark任务

安全设置是您可以对数据安全及访问进行精细化控制、对Spark Jar任务的开关及鉴权模式的设置,来保障数据的安全性。本文为您介绍如何设置严格权限模式和Spark Jar任务。

文章 2024-02-24 来自:开发者社区

Spark学习--1、Spark入门(Spark概述、Spark部署、Local模式、Standalone模式、Yarn模式)(一)

1、Spark概述 1.1 什么是Spark Spark是一个基于内存的快速、通用、可扩展的大数据分析计算引擎。 spark基于内存的快速、通用、可扩展的大数据分析计算引擎,是基于内存的,通过DAG(有向无环图)执行引擎支持无环数据流 弹性分布式数据集(RDD)...

Spark学习--1、Spark入门(Spark概述、Spark部署、Local模式、Standalone模式、Yarn模式)(一)
文章 2023-08-04 来自:开发者社区

Spark学习--1、Spark入门(Spark概述、Spark部署、Local模式、Standalone模式、Yarn模式)(二)

2.3.5 配置高可用(HA)1、高可用原理2、配置高可用(0)停止Spark集群(1)Zookeeper正常安装并启动(2)修改spark-env.sh文件添加如下配置#注释掉如下内容: #SPARK_MASTER_HOST=hadoop102 #SPARK_MASTER_PORT=7077 #添加如下内容。配置由Zookeeper管理Master,在Zookeeper节点中自动创建/spar....

Spark学习--1、Spark入门(Spark概述、Spark部署、Local模式、Standalone模式、Yarn模式)(二)
文章 2023-08-04 来自:开发者社区

Spark学习--1、Spark入门(Spark概述、Spark部署、Local模式、Standalone模式、Yarn模式)(一)

1、Spark概述1.1 什么是SparkSpark是一个基于内存的快速、通用、可扩展的大数据分析计算引擎。1.2 Hadoop和Spark历史Hadoop的Yarn框架比Spark框架诞生的晚,所以Spark自己也设计了一套资源调度框架。1.3 Hadoop和Spark框架对比1.4 Spark内置模块1.5 Spark特点1、快:与Hadoop的MapReduce相比,Spark基于内存的运....

Spark学习--1、Spark入门(Spark概述、Spark部署、Local模式、Standalone模式、Yarn模式)(一)
文章 2022-05-27 来自:开发者社区

十二、Spark的安装与部署详情(Local模式,Standalone模式,Spank on YARN模式)

Spark环境搭建Spark的部署方式        目前Spark支持4种部署方式,分别是Local、Standalone、Spark on Mesos和 Spark on YARN。Local模式是单机模式。Standalone模式即独立模式,自带完整的服务,可单独部署到一个集群中,无需依赖任何其他资源管理系统。Spark On Mesos模式是官方推....

十二、Spark的安装与部署详情(Local模式,Standalone模式,Spank on YARN模式)
问答 2021-12-13 来自:开发者社区

spark部署模式中的standalone模式具体有哪些特点啊?

spark部署模式中的standalone模式具体有哪些特点啊?

文章 2016-09-14 来自:开发者社区

Apache Spark源码走读(五)部署模式下的容错性分析 &standalone cluster模式下资源的申请与释放

<一>部署模式下的容错性分析 概要 本文就standalone部署方式下的容错性问题做比较细致的分析,主要回答standalone部署方式下的包含哪些主要节点,当某一类节点出现问题时,系统是如何处理的。 Standalone部署的节点组成 介绍Spark的资料中对于RDD这个概念涉及的比较多,但对于RDD如何运行起来,如何对应到进程和线程的,着墨的不是很多。 在实际的生产环境中,S.....

Apache Spark源码走读(五)部署模式下的容错性分析 &standalone cluster模式下资源的申请与释放

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注