当前位置:网站首页>spark 读取本地文件
spark 读取本地文件
2022-08-02 07:00:00 【this is a book】
1 背景
基于spark 开发程序
数据放在本地文件中,为text格式
本文语言案例为java
2 步骤
2.1 搭建工程
基于maven搭建spark工程_this is a book的博客-CSDN博客
2.2 代码示例
SparkConf conf = new SparkConf().setAppName("demo").setMaster("local[*]");
SparkSession sparkSession = SparkSession.builder().config(conf).getOrCreate();
JavaSparkContext javaSparkContext = new JavaSparkContext(sparkSession.sparkContext());
JavaRDD<String> rdd = javaSparkContext.textFile(INPUT_PATH);
rdd.foreach(new VoidFunction<String>() {
@Override
public void call(String s) throws Exception {
System.out.println(s);
}
});
3 注意事项
如果是放在linux 服务器上,并且跑在spark 上,文件路径需要加这个前缀
file:///data/demo.text
原因是spark一般和hdms组合使用,读取本地文件需要加前缀表明读取的是本地文件
边栏推荐
猜你喜欢
随机推荐
使用hutool做本地缓存的工具类
Xilinx约束学习笔记—— 时序约束
【故障诊断分析】基于matlab FFT轴承故障诊断(包络谱)【含Matlab源码 2002期】
责任链模式(Chain Of Responsibility)
逆变器锁相原理及DSP实现
【ROS基础】rosbag 的使用方法
实例029:反向输出
jvm 二之 栈帧内部结构
(2022牛客多校五)C-Bit Transmission(思维)
OC-NSArray
【暑期每日一题】洛谷 P1192 台阶问题
查看端口号占用
MPLS的相关技术
Find the largest n files
以训辅教,以战促学 | 新版攻防世界平台正式上线运营!
暑假第五周总结
(2022牛客多校五)D-Birds in the tree(树形DP)
实例031:字母识词
论文阅读 (64):Weakly-supervised Video Anomaly Detection with Robust Temporal Feature Magnitude Learning
倍福使用AdsRemote组件实现和C#的ADS通讯