当前位置:网站首页>【先收藏,早晚用得到】49个Flink高频面试题系列(一)
【先收藏,早晚用得到】49个Flink高频面试题系列(一)
2022-06-11 17:40:00 【大数据研习社】
【先收藏,早晚用得到】49个Flink高频面试题系列(一)
持续分享有用、有价值、精选的优质大数据面试题
致力于打造全网最全的大数据面试专题题库

一 . 你在开发Flink任务时,有没有遇到过背压问题,你是如何排查的?
1. 背压产生的原因
背压常常出现在大促或者一些热门活动等场景中, 在上面这类场景中, 短时间内流量陡增导致数据的堆积,系统整体的吞吐量无法提升。
2. 监控背压方法
可以通过 Flink Web UI 发现背压问题。
Flink 的 TaskManager 会每隔 50 ms 触发一次反压状态监测,共监测 100 次,并将计算结果反馈给 JobManager,最后由 JobManager 进行计算反压的比例,然后进行展示。
这个比例的计算逻辑如下:
| 背压程度 | 指标范围 | 备注 |
|---|---|---|
| HIGH | 0.5 < Ratio <= 1 | 严重 |
| LOW | 0.10 < Ratio <= 0.5 | 一般 |
| OK | 0 <= Ratio <= 0.10 | 正常 |
3. 反压问题的定位与处理
Flink出现背压一般可以从下面三个方面进行问题定位
a. 数据倾斜
可以在 Flink 的后台管理页面看到每个 Task 处理数据的大小。当出现数据倾斜时,可以从页面上明显的看到一个或者多个节点处理的数据量远大于其他节点。这种情况一般是在使用KeyBy等分组聚合算子时,没有考虑到可能出现的热点Key。这种情况需要用户对导致倾斜的热点Key做预处理。
b. 垃圾回收机制(GC)
不合理的设置 TaskManager 的垃圾回收参数会导致严重的 GC 问题,可以通过 -XX:+PrintGCDetails 指令查看 GC 的日志。
c. 代码本身
用户因为未深入了解算子的实现机制而错误地使用了 Flink 算子,导致性能问题。我们可以通过查看运行机器节点的 CPU 和内存情况定位问题
二. 如何处理生产环境中的数据倾斜问题?
1. 产生数据倾斜的原因主要有 2 个方面
业务上有严重的数据热点,比如一个房产网站的浏览数据中北京上海等几个一线城市二手房浏览量远远超过其他地区。 技术上如果大量使用了 KeyBy、GroupBy 等操作,且没有对分组的Key做特殊的处理,会产生数据热点问题。
2. 解决问题的思路
业务上要尽量避免热点 key 的设计,例如我们可以把上海、北京等热点城市与非热点城市划分成不同的区域,并进行单独处理; 技术上出现热点时,要调整方案打散原来的 key,避免直接聚合;此外还可以利用Flink提供的功能来避免数据倾斜。
3. Flink 任务数据倾斜场景和解决方案
(1) 两阶段聚合解决 KeyBy 热点
a. 将需要分组的 key 打散,例如添加随机的后缀
b. 对打散后的数据进行聚合
c. 将被打散的 key 还原为原始的 key
d. 二次 KeyBy 来统计最终结果并输出给下游
具体代码如下所示:
DataStream sourceStream = ...;
resultStream = sourceStream
.map(record -> {
Record record = JSON.parseObject(record, Record.class);
String type = record.getType();
record.setType(type + "_" + new Random().nextInt(100));
return record;
})
// 首次聚合
.keyBy(0)
.window(TumblingEventTimeWindows.of(Time.minutes(5)))
.aggregate(new CountAggregate())
.map(count -> {
String key = count.getKey.substring(0, count.getKey.indexOf("_"));
return RecordCount(key,count.getCount);
})
//进行二次聚合
.keyBy(0)
.process(new CountProcessFunction);
resultStream.sink(...)
env.execute(...)(2)GroupBy + Aggregation 分组聚合热点问题
如果是采用FlinkSQL的方式,则可以将FlinkSQL 嵌套成两层,里层通过随机打散 若干份(如100)的方式降低数据热点,(这个打散的方式可以根据业务灵活指定)。
select date,
city_id,
sum(pv) as pv
from(
select
date,
city_id,
floor(rand() * 100),
sum(count) as pv
from kafka_table
group by
date,
city_id,
floor(rand() * 100) --随机打散为100份
)
group by
date,
city_id;(3)Flink 消费 Kafka 使用并行度与Kafka分区数不一致导致的数据倾斜
Flink 消费 Kafka 的数据时,是推荐消费并行度为Kafka分区数的1倍或者整数倍的 ,即 Flink Consumer 的并行度 = Kafka 的分区数 * n (n = 1, 2 ,3 ...)。
三、一个 Flink 任务中可以既有事件时间窗口,又有处理时间窗口吗?
结论:一个 Flink 任务可以同时有事件时间窗口,又有处理时间窗口。
那么有些小伙伴们问了,为什么我们常见的 Flink 任务要么设置为事件时间语义,要么设置为处理时间语义?
确实,在生产环境中,我们的 Flink 任务一般不会同时拥有两种时间语义的窗口。
那么怎么解释开头所说的结论呢?
这里从两个角度进行说明:
我们其实没有必要把一个 Flink 任务和某种特定的时间语义进行绑定。对于事件时间窗口来说,我们只要给它 watermark,能让 watermark 一直往前推进,让事件时间窗口能够持续触发计算就行。对于处理时间来说更简单,只要窗口算子按照本地时间按照固定的时间间隔进行触发就行。无论哪种时间窗口,主要满足时间窗口的触发条件就行。
Flink 的实现上来说也是支持的。Flink 是使用一个叫做 TimerService 的组件来管理 timer 的,我们可以同时注册事件时间和处理时间的 timer,Flink 会自行判断 timer 是否满足触发条件,如果是,则回调窗口处理函数进行计算。需求:数据源:用户心跳日志(uid,time,type)。计算分 Android,iOS 的 DAU,最晚一分钟输出一次当日零点累计到当前的结果。
实现方式 1:cumulate 窗口
SELECT
window_start
, window_end
, platform
, sum(bucket_dau) as dau
from (
SELECT
window_start
, window_end
, platform
, count(distinct uid) as bucket_dau
FROM TABLE(
CUMULATE(
TABLE user_log,
DESCRIPTOR(time),
INTERVAL '60' SECOND
, INTERVAL '1' DAY))
GROUP BY
window_start
, window_end
, platform
, MOD(HASH_CODE(user_id), 1024)
) tmp
GROUP by
window_start
, window_end
, platform
优点:如果是曲线图的需求,可以完美回溯曲线图。
缺点:大窗口之间如果有数据乱序,有丢数风险;并且由于是 watermark 推动产出,所以数据产出会有延迟。
实现方式 2:Deduplicate
-- 如果需要可以打开 minibatch
select
platform
, count(1) as dau
, max(time) as time
from (
select
uid
, platform
, time
, row_number() over (partition by uid, platform, time / 24 / 3600 / 1000 order by time desc) rn
from source
) tmp
where rn = 1
group by
platform
优点:计算快。
缺点:任务发生 failover,曲线图不能很好回溯。没法支持 cube 计算。
实现方式 3:group agg
-- 如果需要可以打开 minibatch
SELECT
max(time) as time
, platform
, sum(bucket_dau) as dau
from (
SELECT
max(time) as time
, platform
, count(distinct uid) as bucket_dau
FROM source
GROUP BY
platform
, MOD(HASH_CODE(user_id), 1024)
) t
GROUP by
platform
优点:计算快,支持 cube 计算。
缺点:任务发生 failover,曲线图不能很好回溯。
四、Flink是如何支持批流一体的?
Flink 通过一个底层引擎同时支持流处理和批处理。

在流处理引擎之上,Flink 有以下机制:
1.检查点机制和状态机制:用于实现容错、有状态的处理;
2.水印机制:用于实现事件时钟;
3.窗口和触发器:用于限制计算范围,并定义呈现结果的时间。
在同一个流处理引擎之上,Flink 还存在另一套机制,用于实现高效的批处理。
1.用于调度和恢复的回溯法:由 Microsoft Dryad 引入,现在几乎用于所有批处理器;
2.用于散列和排序的特殊内存数据结构:可以在需要时,将一部分数据从内存溢出到硬盘上;
3.优化器:尽可能地缩短生成结果的时间。
五、Flink任务延迟高,想解决这个问题,你会如何入手?
在Flink的后台任务管理中,我们可以看到Flink的哪个算子和task出现了反压。最主要的手段是资源调优和算子调优。
资源调优即是对作业中的Operator的并发数(parallelism)、CPU(core)、堆内存(heap_memory)等参数进行调优。
作业参数调优包括:并行度的设置,State的设置,checkpoint的设置。
持续分享有用、有价值、精选的优质大数据面试题
致力于打造全网最全的大数据面试专题题库
边栏推荐
- Service学习笔记02-实战 startService 与bindService
- Hands on deep learning - multiple input and output channels in the convolution layer
- 简单理解事件
- What is the minimum change price of PTA futures? How can PTA futures be safe?
- Go path: goroot & gopath
- 7-1 均是素数
- 6-8 creating and traversing linked lists
- 【线上问题】Timeout waiting for connection from pool 问题排查
- Arraylist集合、对象数组
- sql server中移除key lookup书签查找
猜你喜欢

Summary of clustering methods

ffmpeg硬编解码 Inter QSV

ffmpeg CBR精准码流控制三个步骤

Merge two ordered linked lists ---2022/02/24

聚类方法汇总

CLP information -5 keywords to see the development trend of the financial industry in 2022

【线上问题】Timeout waiting for connection from pool 问题排查

Chorus翻译

Custom or subscription? What is the future development trend of China's SaaS industry?

合并K个升序链表---2022/02/26
随机推荐
Valid parentheses ---2022/02/23
Centos7 server configuration (IV) -- installing redis
合并K个升序链表---2022/02/26
ffmpeg硬件编解码Nvidia GPU
Authing biweekly news: authing forum launched (4.25-5.8)
关于元素位置和尺寸
Set object mapping + scene 6-face mapping + create space in threejs
送给大模型的「高考」卷:442人联名论文给大模型提出204个任务,谷歌领衔
7-1 均是素数
av_read_frame返回值为-5 Input/output error
Test and analysis of tidb write hotspot
Typescipt Basics
TestPattern error
Semaphore PV operation of process interaction and its code implementation
[online problem] timeout waiting for connection from pool
Automated testing selenium
Test basis: black box test
CLP information -5 keywords to see the development trend of the financial industry in 2022
Service learning notes 02- actual combat startservice and bindservice
6-5 统计单词数量(文件)(*)