Spark---第 1 章 Spark 内核概述

Spark 内核泛指 Spark 的核心运行机制,包括 Spark 核心组件的运行机制、Spark 任务调度机制、Spark 内存管理机制、Spark 核心功能的运行原理等,熟练掌握 Spark 内核原理,能够帮助我们更好地完成 Spark 代码设计,并能够帮助我们准确锁定项目运行过程中出现的问题的症结所在。

1.1 Spark 核心组件回顾

1.1.1 Driver

Spark 驱动器节点,用于执行 Spark 任务中的 main 方法,负责实际代码的执行工作。Driver 在 Spark 作业执行时主要负责:

  1. 将用户程序转化为作业(Job);
  2. 在 Executor 之间调度任务(Task);
  3. 跟踪 Executor 的执行情况;
  4. 通过 UI 展示查询运行情况;

1.1.2 Executor

Spark Executor 对象是负责在 Spark 作业中运行具体任务,任务彼此之间相互独立。Spark
应用启动时,ExecutorBackend 节点被同时启动,并且始终伴随着整个 Spark 应用的生命周
期而存在。如果有 ExecutorBackend 节点发生了故障或崩溃,Spark 应用也可以继续执行,
会将出错节点上的任务调度到其他 Executor 节点上继续运行。

Executor 有两个核心功能:

  1. 负责运行组成 Spark 应用的任务,并将结果返回给驱动器(Driver);
  2. 它们通过自身的块管理器(Block Manager)为用户程序中要求缓存的 RDD 提供内存
    式存储。RDD 是直接缓存在 Executor 进程内的,因此任务可以在运行时充分利用缓存
    数据加速运算。

1.2 Spark 通用运行流程概述

在这里插入图片描述
上图为 Spark 通用运行流程图,体现了基本的 Spark 应用程序在部署中的基本提交流程。
这个流程是按照如下的核心步骤进行工作的:

  1. 任务提交后,都会先启动 Driver 程序;
  2. 随后 Driver 向集群管理器注册应用程序;
  3. 之后集群管理器根据此任务的配置文件分配 Executor 并启动;
  4. Driver 开始执行 main 函数,Spark 查询为懒执行,当执行到 Action 算子时开始反向推
    算,根据宽依赖进行 Stage 的划分,随后每一个 Stage 对应一个 Taskset,Taskset 中有多
    个 Task,查找可用资源 Executor 进行调度;
  5. 根据本地化原则,Task 会被分发到指定的 Executor 去执行,在任务执行的过程中,
    Executor 也会不断与 Driver 进行通信,报告任务运行情况。

概念解释:

懒执行

懒执行(Lazy Evaluation)是一种计算策略,它延迟计算表达式的值,直到该值被实际需要的时候才进行计算。与之相对,即时执行(Eager Evaluation)是立即计算表达式的值。

在懒执行中,表达式的计算被推迟,直到它的结果被使用时才进行计算。这种策略通常用于优化计算资源的使用,特别是在某些表达式的计算是耗时的或者在某些情况下可能根本不需要计算的情况下。通过懒执行,可以避免不必要的计算开销。

在编程语言中,懒执行通常通过延迟加载或惰性求值的机制来实现。例如,在Scala中,可以使用关键字 “lazy” 来定义懒执行的值或表达式。当使用这个懒执行的值时,如果它还没有被计算过,它会自动进行计算,并将计算结果缓存起来供后续使用。

下面是一个简单的Scala示例,演示了如何使用懒执行:

lazy val expensiveValue: Int = {// 执行耗时的计算println("Performing expensive calculation")42
}// 在使用值之前,不会进行计算
println("Before accessing value")
println(expensiveValue) // 计算并输出值
println("After accessing value")
println(expensiveValue) // 直接使用缓存的值

运行上述代码会产生以下输出:

Before accessing value
Performing expensive calculation
42
After accessing value
42

可以看到,当我们第一次访问 expensiveValue 时,耗时的计算会被执行,并将结果缓存起来。在后续访问时,直接使用缓存的结果,而不需要再次进行计算。

懒执行可以在某些场景下提高性能和资源利用率,但也需要注意懒执行可能引入的延迟和副作用。因此,在使用懒执行时,需要根据具体情况权衡利弊,并确保正确地处理可能的并发或线程安全问题。

宽依赖

宽依赖(Wide Dependency)是指在并行计算中,一个任务(或操作)所依赖的输入数据来自于多个不同的任务或操作。宽依赖通常被认为是并行计算中的一种性能瓶颈,因为它限制了任务的并行性。

在并行计算中,任务之间的依赖关系可以分为窄依赖(Narrow Dependency)和宽依赖。窄依赖表示一个任务只依赖于少数其他任务的输出数据,因此可以很容易地并行执行。而宽依赖表示一个任务依赖于大量其他任务的输出数据,导致任务之间存在较高的依赖关系,从而限制了并行执行的能力。

当存在宽依赖时,执行引擎需要等待所有相关任务都完成并生成输出数据,才能继续执行下一个任务。这可能导致任务之间的串行执行,从而降低了并行计算的效率。

在大规模数据处理框架(如Apache Spark)中,宽依赖是一个常见的挑战。当一个操作需要依赖于多个分区的数据时,就会产生宽依赖。这种情况下,计算引擎需要等待所有分区的数据都可用,才能进行下一步计算。

为了减少宽依赖对并行计算的影响,可以采取一些优化策略,例如引入更细粒度的任务划分,减少任务之间的依赖关系,或者使用更高级的调度和执行策略。这些策略可以帮助提高并行计算的性能和效率。

总而言之,宽依赖指的是在并行计算中,一个任务所依赖的输入数据来自于多个不同任务或操作,从而限制了任务的并行性和计算效率。

Spark Driver

在Apache Spark中,Driver是Spark应用程序的主要组件之一。它是运行在Spark集群上的一个进程,负责管理整个应用程序的执行过程,并与集群中的Executor进行通信。

Spark应用程序通常由一个Driver程序和多个Executor组成。Driver程序是应用程序的控制中心,负责以下几个主要任务:

  1. 解析应用程序:Driver程序负责解析用户编写的Spark应用程序代码,并构建应用程序的逻辑执行计划。

  2. 调度任务:Driver程序将应用程序的任务划分为不同的阶段(stage),并根据任务之间的依赖关系构建DAG(有向无环图)。它将这些任务分发给Executor进行并行执行。

  3. 维护元数据:Driver程序维护有关应用程序的元数据信息,例如任务进度、数据分区、依赖关系等。

  4. 提供交互界面:Driver程序通常还提供与应用程序交互的界面,例如接收用户输入、显示任务进度和结果等。

  5. 处理异常和容错:Driver程序监控应用程序的执行过程,并处理执行过程中可能出现的异常情况。它负责执行容错机制,以确保应用程序的可靠执行。

Driver程序在启动时会向集群管理器(如Standalone模式、YARN或Apache Mesos)请求资源,包括Executor的数量和内存分配等。一旦资源被分配,Driver程序将与Executor建立连接,并将任务发送给它们执行。

需要注意的是,Driver程序通常运行在应用程序的客户端,例如在提交应用程序的机器上。它与集群中的Executor通过网络进行通信,并将计算任务委托给Executor执行。因此,Driver程序需要具备足够的计算和内存资源来管理和协调整个应用程序的执行过程。

总结起来,Spark的Driver是运行在Spark集群上的一个进程,负责管理整个应用程序的执行过程,包括任务调度、数据划分、容错处理等。它与集群中的Executor进行通信,并将计算任务分发给它们执行。

Spark Executor

在Apache Spark中,Executor是运行在Spark集群中的工作进程,负责执行Spark应用程序中的具体任务。

每个Executor都在集群中的节点上启动,并接收来自Driver程序的任务。Executor负责在其所在的节点上分配计算资源,执行具体的任务代码,并将结果返回给Driver程序。Executor通常在集群中的每个节点上启动一个或多个实例,可以根据应用程序的需求进行扩展。

Executor的主要职责包括:

  1. 任务执行:Executor根据Driver程序发送的任务,执行具体的计算代码。它会将任务分解为更小的任务单元,并在分配给它的资源上进行并行执行。每个Executor都有自己的计算资源,包括CPU、内存和磁盘空间。

  2. 数据存储:Executor负责在其所在的节点上存储和管理任务执行过程中所涉及的数据。它会将数据加载到内存中,并在需要时进行持久化或序列化。

  3. 数据分片:Executor将输入数据划分为多个分片,并将这些分片分发给不同的任务进行处理。它负责将数据移动到计算节点上,以便任务可以在本地执行。

  4. 任务监控和日志记录:Executor会定期向Driver程序汇报任务的状态和进度信息,以及可能的异常情况。它还负责记录任务执行过程中的日志信息,以便进行故障排查和调试。

Executor是Spark集群中的计算单元,通过与Driver程序进行通信,执行分布式计算任务。它在集群中运行,并利用分配给它的计算资源来执行具体的计算代码。Executor的数量和规模可以根据应用程序的需求进行调整,以实现更高的并行度和吞吐量。

需要注意的是,Executor是由Spark集群管理器(如Standalone模式、YARN或Apache Mesos)动态分配和管理的。Spark应用程序的Driver程序会与集群管理器协商资源,并向其请求分配Executor。一旦资源被分配,Executor将启动并准备执行任务。

总结起来,Spark的Executor是在集群中运行的工作进程,负责执行具体的任务代码,存储和管理任务数据,并向Driver程序汇报任务的状态和进度。它是实际执行计算的核心组件,通过并行执行任务来实现高性能和分布式计算能力。

action算子

在Scala中,"Action"算子通常用于Apache Spark这样的分布式计算框架,用于触发对数据集的计算操作并返回结果,这些操作会触发Spark的执行引擎将计算任务发送到集群上执行。

以下是Scala中常用的一些Spark Action算子:

  1. collect():将数据集中的所有元素收集到驱动程序中,并以数组的形式返回。

  2. count():统计数据集中的元素个数,并返回结果。

  3. first():返回数据集中的第一个元素。

  4. take(n: Int):返回数据集中的前n个元素,并以数组的形式返回。

  5. reduce(func: (T, T) => T):对数据集中的元素进行归约操作,使用给定的二元函数对元素进行聚合。

  6. foreach(func: T => Unit):对数据集中的每个元素应用给定的函数。

  7. saveAsTextFile(path: String):将数据集中的元素以文本文件的形式保存到指定路径。

  8. countByKey():对包含键值对的数据集进行统计,返回每个键的出现次数。

这些Action算子都会触发Spark的计算过程,因此在使用它们之前,通常需要先对数据集进行一些转换操作,例如使用map()filter()reduceByKey()等转换算子对数据进行预处理。

需要注意的是,这些Action算子在执行过程中可能会触发数据的广播和持久化等操作,因此在使用时需要根据具体的情况考虑数据量、性能和内存使用等因素。

更多精彩内容,参考下一节:
第 2 章 Spark 部署模式。
http://t.csdn.cn/0wF5m

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/17570.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

python车牌识别

识别结果 蓝牌 绿牌 黄牌 环境 python:3.9\opencv:4.5.1 环境安装 pip3 install opencv-python -i https://pypi.tuna.tsinghua.edu.cn/simple pip3 install hyperlpr -i https://pypi.tuna.tsinghua.edu.cn/simple 修改 cd /Library/Frameworks/Python.framework/Versi…

14、双亲委托模型

双亲委托模型 先直接来看一幅图 双亲委派模型的好处: 主要是为了安全性,避免用户自己编写的类动态替换Java的一些核心类,比如 String。 同时也避免了类的重复加载,因为JVM中区分不同类,不仅仅是根据类名&#xff0c…

【Linux】生产者消费者模型

目录 一、生产者消费者模型的优点 二、基于BlockingQueue的生产者消费者模型 1、BlockingQueue 2、C queue模拟阻塞队列的生产消费模型 3、POSIX信号量 3.1、信号量接口 三、基于环形队列的生产消费模型 1、模型说明 2、代码实现 3、互斥锁与信号量 一、生产者消费者模…

Windows+IDEA+Nginx反向代理本机实现简单集群

先简单创建一个项目,可以是Maven也可以是Spring Initializr,如果是 Maven则需要自己配置启动类 按照目录路径创建controller类 package com.cloud.SR.controller;import org.springframework.beans.factory.annotation.Autowired; import org.springfram…

动作捕捉技术在发布会中的应用,虚拟数字人如何实现实时动作捕捉

动作捕捉又称为动态捕捉,是一种将真人动作转化为数字数据的技术,通过传感器等设备记录真人的运动轨迹,再将这些动作捕捉数据转化为计算机可以识别的数字数据,近年来在发布会中得到了广泛应用。 素材源于网络 在2023海丝之路文化和…

Linux:项目自动化构建工具——make/Makefile

文章目录 一.make与Makefile的关系1.Makefile2.make 二.项目清理1.clean2. .PHONY 前言: 本章主要内容有认识与学习Linux环境下如何使用项目自动化构建工具——make/makefile。 一.make与Makefile的关系 当我们编写一个较大的软件项目时,通常需要将多个…

集成学习-BaggingVoting和多个模型的混淆矩阵

当涉及到集成学习时,投票法和袋装法是两种常见的技术,用于将多个基学习器(base learner)组合成一个强大的集成模型。 投票法(Voting):投票法是一种简单且常用的集成学习方法。在投票法中&#…

Graalvm编译spring boot 3 + jpa 的原生镜像

编译spring boot 3 native jpa的原生镜像 其中涉及版本: maven: 3.5.4 jdk: 17 graalvm: 22.3 springboot jpa: 3.0.8 一、Windows 1、graalvm安装 GraalVM22.3.0安装地址 解压到任意目录后添加JAVA_HOME环境变量 新增path:%JAVA_HOME%与%JAVA_H…

MySQL数据库(三)

前言 聚合查询、分组查询、联合查询是数据库知识中最重要的一部分,是将表的行与行之间进行运算。 目录 前言 一、聚合查询 (一)聚合函数 1、count 2、sum 3、avg 4、max 5、min 二、分组查询 (一)group by …

【python手写算法】利用梯度下降实现线性拟合

利用梯度下降实现线性拟合,效果和sklearn LinearRegression()差不多。 学习率初始设置为0.1结果算高的,直接让我的参数变成了nan。(体会到了飞出去的感觉) 把学习率调小了之后就正常了 # codingutf-8 import matplotlib.pyplot a…

<数据结构>NO9.选择类排序|直接选择排序|堆排序

文章目录 选择排序1.直接选择排序优化直接选择排序 2. 堆排序 选择排序 基本思想 选组排序是从待排序数据中选出最大/最小的元素放入到序列的起始位置,直到待排序数据全部有序。 直接选择排序和堆排序的基本思想均符合选择排序。 1.直接选择排序 假设数据按升序…

时间序列预测 | Matlab基于粒子群算法(PSO)优化径向基神经网络(PSO-RBF)的时间序列预测

文章目录 效果一览文章概述部分源码参考资料效果一览 文章概述 时间序列预测| Matlab基于粒子群算法(PSO)优化径向基神经网络(PSO-RBF)的时间序列预测 评价指标包括:MAE、MBE和R2等,代码质量极高,方便学习和替换数据。要求2018版本及以上。 部分源码 %% 清空环境变量 warni…