第04章 Spark SQL常用参数
  jOqYTgEXfJbg 2023年11月02日 39 0

目录

第04章 Spark SQL常用参数 2

4.1 AQE优化控制 2

4.2 SHUFFLE分区个数控制 3

4.3 SHUFFLE输入大小控制 3

4.4 TASK内存参数 3

4.5 TASK同时运行个数 3

4.6 其它REDUCE阶段相关参数 4

4.7 如何预估每个REDUCE任务处理的数据量 6

第04章 Spark SQL常用参数

4.1 AQE优化控制

通过设置spark.sql.adaptive.enabled参数,可以开启reduce合并功能。比如有500个map,每个map过滤后只有1M数据,每个reduce应该处理128M数据,那么只需要4个reduce就能处理数据,执行速度更快,而且还合并了小文件。

这是开启AQE前

第04章 Spark SQL常用参数_spark

这是开启AQE后,reduce进行了合并。

第04章 Spark SQL常用参数_运行时间_02

4.2 SHUFFLE分区个数控制

通过设置spark.sql.shuffle.partitions参数,可以控制shuffle时,reduce的个数。在一些大数据量shuffle时,调大这个参数,可以让每个reduce处理的数据量变小,避免oom产生。

这个值不建议特别大,一般不超过2000。

4.3 SHUFFLE输入大小控制

通过设置spark.sql.adaptive.shuffle.targetPostShuffleInputSize参数,可以控制shuffle时,每个reduce需要处理的数据量,通过减小这个参数,可以减小reduce处理的数据量,增加了reduce的个数,同样能避免oom产生。

注意:前提是spark.sql.adaptive.enabled参数必须设置为true,才会生效。

4.4 TASK内存参数

通过设置task的内存参数,可以优化任务。比如task处理的数据量比较大,那么可以加大内存,从而避免oom。如果task处理的数据量小,那么可以减小内存。通过设置--executor-memory 1G控制堆内内存占用,通过设置—conf spark.executor.memoryOverhead=3G设置堆外内存占用。

4.5 TASK同时运行个数

通过设置task的同时运行个数,能加快任务的产出,能有效减少任务的运行时间。通过spark.dynamicAllocation.maxExecutors或者通过设置--num-executors进行指定。

第04章 Spark SQL常用参数_spark_03

在占用集群总资源不变的情况下,减小内存配置,加大executor数,可以有效减少任务的运行时间。

这是我们在生产环境优化的一个sql,优化前需要执行5155秒,优化后只需要执行1791秒。


执行时间秒

工作流参数(优化前)

5155

参数优化后

1791

第04章 Spark SQL常用参数_sql_04

这是我们的优化参数


旧值

新值


spark.sql.shuffle.partitions

500

5000


spark.dynamicAllocation.maxExecutors

500

1200


spark.executor.memoryOverhead

1G

1G


executor-memory

5G

1.5G


旧资源总占用=(5G + 1G)* 500 =3000G

新资源总占用=(1.5G+1G)*1200=3000G

可以发现使用的总内存资源是一样的,但是执行时间减少了百分之60。

4.6 其它REDUCE阶段相关参数

在一个大集群中,Spark运行经常会遇到shuffle相关异常,如下参数对于提升SQL任务shuffle稳定有很大帮助。

参数

默认值

建议值

解释

spark.reducer.maxReqsInFlight

Int.MaxValue

50

此配置限制在任何给定点获取块的远程请求数。当集群中的主机数量增加时,可能会导致到一个或多个节点的大量入站连接,从而导致worker在负载下失败。通过允许它限制fetch请求的数量,可以缓解这种情况。

spark.reducer.maxBlocksInFlightPerAddress

Int.MaxValue

50

此配置限制每个reduce任务从给定主机端口获取 的远程块的数量。当在单个获取中或同时从给定 地址请求大量块时,这可能会使服务 Executor或 NodeManager 崩溃。当启用 External Shuffle 时,这对于减少 NodeManager 上的负载特别有 用。可以通过将其设置为较低的值来缓解此问 题。

spark.shuffle.registration.timeout

5000毫秒

15000

注册外部shuffle服务的超时时间

spark.shuffle.registration.maxAttempts

3

5

当我们无法注册到外部shuffle服务时,我们将重试maxAttempts次

spark.shuffle.io.retryWait

5s

20s

重试之间等待的时间

spark.shuffle.io.maxRetries

3

6

重试最大等待次数

4.7 如何预估每个REDUCE任务处理的数据量

如何减小每个reduce task处理的数据量,我们可以通过下面的公式预估每个reduce task处理的数据量。

1)、并行度=min(spark.sql.shuffle.partitions,(上一阶段处理的总数据量/spark.sql.adaptive.shuffle.targetPostShuffleInputSize) )

2)、每个reduce task处理的最终数据量=上一阶段处理的总数据量/并行度

通过公式,我们可以知道,要想减少每个reduce task处理的数据量,最终减小oom概率,那么我们可以增加spark.sql.shuffle.partitions参数,或者减小spark.sql.adaptive.shuffle.targetPostShuffleInputSize参数。

在总资源不变情况下,内存和executor数的关系是:

减小内存配置,加大executor数,在消耗总资源不变情况下,减少了任务运行时间。

加大内存配置,减小executor数,在消耗总资源不变情况下,增加了任务稳定性,减少oom概率,增加了任务运行时间。

来自视频:《Spark SQL性能优化》

链接地址:
https://edu.51cto.com/course/34516.html

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月08日 0

暂无评论

推荐阅读
  F36IaJwrKLcw   2023年12月23日   39   0   0 idesparkidesparkDataData
jOqYTgEXfJbg
最新推荐 更多

2024-05-31