本文共 4019 字,大约阅读时间需要 13 分钟。
上篇JOB logview 查看问题
提到长尾问题,本文深入探讨下 长尾调优的方法
因为数据分布不均,导致各个节点的工作量不同,整个任务就需要等最慢的节点完成才能完成。这种问题就是长尾问题,是分布式计算里最常见的问题之一,也是典型的疑难杂症。
处理这类问题的思路就是把工作分给多个Worker去执行,而不是一个Worker单独抗下最重的那份工作。本文分享平时工作中遇到的一些典型的长尾问题的场景及其解决方案。
Join时出现某个Key里的数据特别多的情况会出现Join长尾,是因为
解法:
排除两张表都是小表的情况,若两张表里有一张大一张小,可以考虑使用Mapjoin,对小表进行缓存。具体语法和说明见下段文字详细解释。如果是MapReduce作业,可以使用资源表的功能,对小表进行缓存。
但是如果两张表都比较大,就需要先尽量去重。
若还是不能解决,就需要从业务上考虑,为什么会有这样的两个大数据量的Key要做笛卡尔积,直接考虑从业务上进行优化。
当一个大表和一个或多个小表做join时,可以使用mapjoin,性能比普通的join要快很多。mapjoin的基本原理是:在小数据量情况下,SQL会将用户指定的小表全部加载到执行join操作的程序的内存中,从而加快join的执行速度。需要注意,使用mapjoin时:
下面是一个简单的示例:
select /* + mapjoin(a) */
a.shop_name,
b.customer_id,
b.total_price
from shop a join sale_detail b
on a.shop_name = b.shop_name;
MaxCompute SQL不支持支持在普通join的on条件中使用不等值表达式、or 逻辑等复杂的join条件,但是在mapjoin中可以进行如上操作,例如:
select /*+ mapjoin(a) */
a.total_price,
b.total_price
from shop a join sale_detail b
on a.total_price < b.total_price or a.total_price + b.total_price < 500;
Group By Key 出现长尾的原因是因为某个Key内的计算量特别大。
解法 一:可对SQL进行改写,添加随机数,把长Key进行拆分。如SQL:
Select Key,Count(*) As Cnt From TableName Group By Key;
不考虑Combiner,M节点会Shuffle到R上,然后R再做Count操作。对应的执行计划是M->R
但是如果对长尾的Key再做一次工作再分配,就变成:
-- 假设长尾的Key已经找到是KEY001
SELECT a.Key
, SUM(a.Cnt) AS Cnt
FROM (
SELECT Key
, COUNT(*) AS Cnt
FROM TableName
GROUP BY Key,
CASE
WHEN Key = 'KEY001' THEN Hash(Random()) % 50
ELSE 0
END
) a
GROUP BY a.Key;
可以看到,这次的执行计划变成了M->R->R。虽然执行的步骤变长了,但是长尾的Key经过了2个步骤的处理,整体的时间消耗可能反而有所减少。注意,若数据的长尾并不严重,用这种方法人为地增加一次R的过程,最终的时间消耗可能反而更大。
解法二:使用通用的优化策略——系统参数,设置
set odps.sql.groupby.skewindata=true。
但是通用性的优化策略无法针对具体的业务进行分析,得出的结果不总是最优的。开发人员可以根据实际的数据情况,用更加高效的方法来改写SQL。
可以看到,对于Distinct,上述Group By长尾“把长Key进行拆分”的策略已经不生效了。对这种场景,我们可以考虑其他方式解决。
解法:
--原始SQL,不考虑Uid为空
SELECT COUNT(uid) AS Pv
, COUNT(DISTINCT uid) AS Uv
FROM UserLog;
可以改写成
SELECT SUM(PV) AS Pv
, COUNT(*) AS UV
FROM (
SELECT COUNT(*) AS Pv
, uid
FROM UserLog
GROUP BY uid
) a;
该解法是把Distinct改成了普通的Count,这样的计算压力不会落到同一个Reducer上。而且这样改写后,既能支持前面提到的Group By优化,系统又能做Combiner,性能会有较大的提升。
动态分区功能为了整理小文件,会在最后起一个Reduce,对数据进行整理,所以如果使用动态分区写入数据时若有倾斜,就会发生长尾。另外一般情况下滥用动态分区的功能也是产生这类长尾的一个常见原因。
解法:若写入的数据已经确定需要把数据写入某个具体分区,那可以在Insert的时候指定需要写入的分区,而不是使用动态分区。
对于MapRedcuce作业,使用Combiner是一种常见的长尾优化策略。在WordCount的例子里,就已经有提到这种做法。通过Combiner,减少Maper Shuffle往Reducer的数据,可以大大减少网络传输的开销。对于MaxCompute SQL,这种优化会由系统自动完成。
需要注意的是,Combiner只是Map端的优化,需要保证是否执行Combiner的结果是一样的。以WordCount为例,传2个(KEY,1)和传1个(KEY,2)的结果是一样的。但是比如在做平均值的时候,就不能在Combiner里就把(KEY,1)和(KEY,2)合并成(KEY,1.5)。
针对长尾这种场景,除了前面提到的Local Combiner,MaxCompute系统本身还做了一些优化。比如在跑任务的时候,日志里突然打出这样的内容(+N backups部分):
M1_Stg1_job0:0/521/521[100%] M2_Stg1_job0:0/1/1[100%] J9_1_2_Stg5_job0:0/523/523[100%] J3_1_2_Stg1_job0:0/523/523[100%]R6_3_9_Stg2_job0:1/1046/1047[100%]
M1_Stg1_job0:0/521/521[100%] M2_Stg1_job0:0/1/1[100%] J9_1_2_Stg5_job0:0/523/523[100%] J3_1_2_Stg1_job0:0/523/523[100%]R6_3_9_Stg2_job0:1/1046/1047[100%]
M1_Stg1_job0:0/521/521[100%] M2_Stg1_job0:0/1/1[100%] J9_1_2_Stg5_job0:0/523/523[100%] J3_1_2_Stg1_job0:0/523/523[100%] R6_3_9_Stg2_job0:1/1046/1047(+1backups)[100%]
M1_Stg1_job0:0/521/521[100%] M2_Stg1_job0:0/1/1[100%] J9_1_2_Stg5_job0:0/523/523[100%] J3_1_2_Stg1_job0:0/523/523[100%] R6_3_9_Stg2_job0:1/1046/1047(+1backups)[100%]
可以看到1047个Reducer,有1046个已经完成了,但是最后一个一直没完成。系统识别出这种情况后,自动启动了一个新的Reducer,跑一样的数据,然后看两个哪个快,取快的数据归并到最后的结果集里。
虽然前面的优化策略有很多,但是实际上还是有限。有时候碰到长尾问题,还需要从业务角度上想想是否有更好的解决方法,比如:
转载地址:http://sdufm.baihongyu.com/