Presentation is loading. Please wait.

Presentation is loading. Please wait.

基于MapReduce的Join算法优化

Similar presentations


Presentation on theme: "基于MapReduce的Join算法优化"— Presentation transcript:

1 基于MapReduce的Join算法优化
数据倾斜情况下 基于MapReduce的Join算法优化 报告人:蔡珉星 厦大数据库实验室

2 目录 遇到的问题 优化思路 - 改进Partition Partition在两表连接中的改进 LEEN算法

3 优化思路 - 改进Partition Part 1

4 哈希实际上是一种针对键的分组均衡分配,不能保证数据量均衡分配
Partition MapReduce中的Partition: 在Map端输出时,需要对key进行分区,来决定输出数据传输到哪个reducer上进行处理。 默认的partition是通过哈希操作来决定分配到哪个reducer。 哈希Partition的局限 哈希在数据均衡的情况下,可以很好的将数据平均到各个Reducer上,但在数据倾斜情况下,会导致某几个Key的值大量集聚在单个Reducer上。 哈希实际上是一种针对键的分组均衡分配,不能保证数据量均衡分配

5 Join算法优化思路 Reduce-side Join:
Map-side Join(复制连接、半连接)对数据集要求较高,一般情况下Join操作是采用Reduce-side Join - 重分区连接:将键相同的数据分到同一个reducer,再进行Join。 优化重分区连接: 区分大小数据集,将小数据集读取到内存中,再用小数据集来遍历大数据集。 优化重分区连接的精髓就在于Reduce端用小数据集遍历大数据集,这部分已经没有什么改进空间。哪里还可以再改进? --> Partition: 优化重分区连接采用Hash parition不能保证数据量均衡分配。

6 优化重分区连接采用Hash parition,不能保证数据量均衡分配

7 Partition在两表连接中的改进 Part 2

8 两表连接中的改进 数据实例: 即便可以采用优化重分区,但在Partition时已经造成了数据分配倾斜! 3个Data节点
每个节点输出75个键值 81 -> 36% 103 -> 46% 41 -> 18% 即便可以采用优化重分区,但在Partition时已经造成了数据分配倾斜!

9 两表连接中的改进 均衡Partition 论文《LEEN LocalityFairness- Aware Key Partitioning for MapReduce in the Cloud》中的算法LEEN给出的Partition: 74 -> 33% 77 -> 34% 获知键值的分布

10 两表连接中的改进 获知键值的分布 – 采样 Partition方式: 简单范围分区
在执行Reducer-side Join之前,先运行一个Job,统计数据分布情况。 采样开销应尽可能少,同时保证准确性。 Partition方式: 简单范围分区 Map端采样:每个Mapper随机取x个Sample,有n个Mapper。 Reduce端统计分布:只需要一个Reducer,此时n*x个Sample已是排好序的。

11 两表连接中的改进 Partition方式: 简单范围分区(续)
若执行的Join有N个Reducer,可以根据步长 n*x/N 获得一个分区序列。 例如: Samples: [1, 3, 3, 4, 5, 5, 6, 6, 6, 6, 8, 9, 9, 10, 10], 5个Reducer,步进3 分区序列: [3, 5, 6, 9] Join Partition: key≤3 3<key≤5 5<key≤ <key≤ <key [1,3,3] [4,5,5] [6,6,6,6] [8,9,9] [10,10] 倾斜情况: Samples: [1, 3, 3, 4, 5, 5, 6, 6, 6, 6, 6, 6, 9, 10, 10], 5个Reducer,步进3 分区序列: [3, 5, 6, 6] -> 键为6的有两个可选Reducer 解决: build relation: 随机选择一个可选Reducer probe relation: 需发送到每个可选Reducer R join S -> R: probe, S: build?

12 + 两表连接中的改进 倾斜键存在大小表的情况
Samples: [1, 3, 3, 4, 5, 5, 6, 6, 6, 6, 6, 6, 9, 10, 10], 5个Reducer,步进3 分区序列: [3, 5, 6, 6] -> 键为6的有两个可选Reducer 3 和 4 R join S,对于键6,若 R.6 << S.6 可将所有的R.6传输到3和4上,然后S.6可以随机分配到3或4上 1000个A + 500个A

13 两表连接中的改进 进一步的改进:虚拟范围分区 实际是N个Reducer,但假定分成 α*N 个分区(α为整数)。 例如
Samples: [1, 3, 4, 4, 5, 5, 6, 6, 6, 6, 6, 6, 9, 10, 10, 11, 11, 11, 15, 16], 5个Reducer Join Partition: [1,3,4,4], [5,5,6,6], [6,6,6,6], [9,10,10,11,11,11], [15,16] α = 2,则分成2*5=10个分区 Samples: [1, 3, 3, 4, 5, 5, 6, 6, 6, 6, 6, 6, 9, 10, 10, 11, 11, 11, 15, 16], 10个Reducer Join Partition: [1,3,3], [4], [5,5], [6,6], [6,6], [6,6], [9,10,10], [11], [11,11], [15,16] 采用虚拟范围分区,数据分配更加均衡 处理方式: 轮叫调度 或 当某一节点完成时,将下一剩余任务分配给该节点 论文的实验结果表明虚拟范围分区优于简单范围分区

14 Reduce阶段须在数据传输、合并完成后才能开始
还有什么地方可以再优化? Reduce阶段须在数据传输、合并完成后才能开始 能否减少网络传输?

15 LEEN算法 Part 2

16 LEEN算法 针对Copy Phase的一些考虑
map和reduce任务可在同一个节点上,copy阶段,节点fetch的数据包括自身节点上的数据(不需要网络传输)和其他节点上的数据(需要网络传输)。 若为了降低网络传输,应尽量fetch自身节点的数据。但以自身数据量作为Partition依据,可能导致reduce端数据分配不均,如何平衡?

17 Partition后,本地数据所占的比例 网络共需要传输的数据量: Total Map output × (1 -Locality)
LEEN算法 Partition后,本地数据所占的比例 数据实例: 3个Data节点 每个节点输出75个键值 22 -> 29% 30 -> 40% 17 -> 22% 网络共需要传输的数据量: Total Map output × (1 -Locality) 81*(1-29%) + 103*(1-40%) + 41*(1-22%) = 151 151/225 = 67% 81 -> 36% 103 -> 46% 41 -> 18%

18 LEEN算法 LEEN:异步map和reduce模式
Hadoop中的计算和数据传输是会重叠的(如一个节点上运行多个map任务,一个map任务结束后,就会进行数据传输)。 LEEN为了获知所有中间数值的分布情况,采用了异步map和reduce模式(先全部执行完map再执行reduce)。 map阶段对每个中间键的结果进行缓存,而不是直接发送到相应的reducer。 这样当map结束时,就有了所有的键分布信息(出现次数等),这些键将根据LEEN算法来进行分配(到reducer)。

19 LEEN算法 LEEN算法:平衡Locality和Fairness 其他思路:
Fairness(≥0): 各个reduce分配的数据量的差异,越小越好; Locality(≤1): 各个reduce分配的数据中,来自本地节点的数据,越大越好; LEEN算法 -> 启发式算法,目标:(Fairness/Locality)的最小值。 其他思路: 因素: Fairness、Locality哪个对Job结果影响更大?(0.2/0.4与0.4/0.8哪个更优?) 体现: 集群的计算能力与网络能力。 通用表达式: T = DATA*diff_time_per_data*Fairness + DATA*trans_time_per_data*(1-Locality) 目标: diff_time_per_data*Fairness + trans_time_per_data*(1-Locality) 最小

20 LEEN算法 实验结果

21 总结 总结: 优化的出发点是实现Reduce的负载均衡; 优化的体现是Job完成的总时间; 优化也可以从Hadoop的流程上考虑;
Partition Copy Phase

22 遇到的问题 Thanks. 22


Download ppt "基于MapReduce的Join算法优化"

Similar presentations


Ads by Google