当前位置:网站首页>通过Flink-Sql将Kafka数据写入HDFS
通过Flink-Sql将Kafka数据写入HDFS
2022-08-05 05:14:00 【IT_xhf】
系列文章目录
提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
例如:第一章 Python 机器学习入门之pandas的使用
提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
近期,公司有需求将Kafka的数据写入到Hive表中,当时看到Flink有一个File Connector可以将文件写入到HDFS,所以开始了解Flink-Sql写入到HDFS的使用。
一、创建Hive Catalog
将Flink-Sql的元数据通过hive catalog保存起来。这样通过Flink Sql创建的表都会保存到Hive中。
CREATE CATALOG myhive_default WITH (
'type' = 'hive',
'default-database' = 'default',
'hive-conf-dir' = '/etc/hive/conf'
);
use catalog myhive_default;
二、创建表
1.创建Kafka表
CREATE TABLE kafka_table (
user_id STRING,
order_amount DOUBLE,
log_ts TIMESTAMP(3),
WATERMARK FOR log_ts AS log_ts - INTERVAL '5' SECOND -- Define watermark on TIMESTAMP column
) WITH (
'connector' = 'kafka',
'topic' = 'kafka2hive2',
'properties.bootstrap.servers' = 'ip1:9092,ip2:9092,ip3:9092',
'properties.group.id' = 'kafka2hive',
'scan.startup.mode' = 'earliest-offset',
'format' = 'csv'
);
2.创建Hive表
CREATE external TABLE fs_table (
user_id STRING,
order_amount DOUBLE
) partitioned by (dt string,h string,m string)
stored as ORC
TBLPROPERTIES (
'partition.time-extractor.timestamp-pattern'='$dt $h:$m:00',
'sink.partition-commit.delay'='0s',
'sink.partition-commit.trigger'='partition-time',
'sink.partition-commit.policy.kind'='metastore');
3. 执行同步语句
set execution.checkpointing.interval=10sec;
insert into fs_table
SELECT user_id, order_amount,DATE_FORMAT(log_ts, 'yyyy-MM-dd'), DATE_FORMAT(log_ts, 'HH'), DATE_FORMAT(log_ts, 'mm') FROM kafka_table;
总结
不开启checkpoint, 写入到Hive的文件都是inprogress状态, 所以在执行之前要开启checkpoint。任务checkpoint后,临时文件会变成正式文件。
参考资料
边栏推荐
猜你喜欢
随机推荐
浅谈Servlet生命周期
vscode+pytorch使用经验记录(个人记录+不定时更新)
Lecture 4 Backpropagation Essays
flink部署操作-flink standalone集群安装部署
flink基本原理及应用场景分析
实现跨域的几种方式
Opencv中,imag=cv2.cvtColor(imag,cv2.COLOR_BGR2GRAY) 报错:error:!_src.empty() in function ‘cv::cvtColor‘
2022 The 4th C.Easy Counting Problem (EGF+NTT)
Mesos学习
[Go through 10] sklearn usage record
vscode+pytorch use experience record (personal record + irregular update)
【NFT网站】教你制作开发NFT预售网站官网Mint作品
【过一下4】09-10_经典网络解析
【零基础开发NFT智能合约】如何使用工具自动生成NFT智能合约带白名单可Mint无需写代码
Flink Table API 和 SQL之概述
redis persistence
Flink accumulator Counter 累加器 和 计数器
[Let's pass 14] A day in the study room
学习总结week2_3
位运算符与逻辑运算符的区别









![[Go through 7] Notes from the first section of the fully connected neural network video](/img/e2/1107171b52fe9dcbf454f7edcdff77.png)