Spark架构及运行流程
Spark架构图
Driver:
- 解析用户的应用程序代码,转化为作业(job)。
- 创建SparkContext上下文对象,其负责与资源管理器(ClusterManager)通信,进行资源的申请、任务的分配和监控等。
- 跟踪Executor的执行情况。
- 可通过UI界面查询运行情况。
Cluster Manager:
- Cluster Manager负责管理集群资源的分配。常用的Cluster Manager有Standalone模式、YARN和Mesos。
- 它负责从集群中的节点上获取计算资源并监控资源使用情况。
Executors:
- Executors是实际执行任务的工作进程,运行在集群节点上。
- 每个Executor负责执行任务并存储数据。
- 向Driver节点注册并反馈任务执行状态。
Tasks:
- 运行在Executor上的最小计算单元。
Spark运行流程图
当执行一个Spark Application时,整个过程如下:
Driver初始化:
- 应用程序的
main
函数由Driver执行,Driver创建一个SparkContext。- SparkContext负责与集群管理器通信,申请资源并协调任务的分配和监控。
资源申请与Executor启动:
- SparkContext向集群管理器注册并申请资源,具体来说,申请运行Executor的计算资源。
- 集群管理器根据资源情况为Executor分配资源,并启动相应的Executor进程。
- 启动的Executor会定期向集群管理器汇报自己的运行状态。
DAG图构建与任务调度:
- SparkContext根据程序中的RDD依赖关系构建一个**DAG(有向无环图)**图。
- DAG图提交给DAGScheduler进行解析,DAGScheduler将图分解成多个Stage。
- 每个Stage由多个任务组成,这些任务被打包成TaskSet,然后提交给TaskScheduler进行调度。
任务执行与结果返回:
- TaskScheduler将任务分发到Executor执行,同时SparkContext将应用程序代码发送给Executor。
- 任务执行结束后,Executor将计算结果返回给Driver,或将结果写入HDFS、数据库等外部存储。
- 运行完毕后释放所有资源。
原文地址:https://blog.csdn.net/qq_14815605/article/details/144245024
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!