当前位置:网站首页>搭建Spark开发环境(第二弹)
搭建Spark开发环境(第二弹)
2022-08-02 21:09:00 【发量不足】
欢迎来到本博客
本篇介绍的是Spark环境的准备
预更新:体验第一个Spark程序
目录
一.环境准备
配置环境:Hadoop、spark(本人是2.0.0)、JDK(1.8)、Linux(Centos6.7)
二·.spark的部署方式
spark部署模式分为Local模式和集群模式,在local模式,常用于本地开发与测试,集群模式又分为standalone模式(集群单机模式)、Yarn模式、mesos模式
三.spark集群安装部署
1下载spark安装包.
下载spark安装包 在Apache spark官网下载网址:Downloads | Apache Spark(最新且稳定的版本是3.2.1,本人安装版本为2.0.0)
2.解压spark安装包
步骤1 先 alt+P,再拉spark-2.3.2-bin-hadoop2.7.tgz上传/opt/software目录下
回到master切换hadoop用户
$su Hadoop
$ cd /opt/software
$ls
$ tar -zxvf spark-2.3.2-bin-hadoop2.7.tgz -C /opt/module/
3.修改配置文件
步骤1 使用mv命令将spark-2.3.2-bin-hadoop2.7重名为spark
$cd /opt/module
$ mv spark-2.3.2-bin-hadoop2.7/ spark
步骤2 先进入/opt/module/spark/conf/目录,将spark-env.sh.template复制给spark-env.sh
$ cd /spark/conf
$ ls
$ cp spark-env.sh.template spark-env.sh
$vi spark-env.sh
# Java环境变量
export JAVA_HOME=/opt/module/jdk1.8.0_144
# 指定master的 IP
export SPARK_MASTER_HOST=master
# 指定master的 端口
export SPARK_MASTER_PORT=7077
步骤4 复制slaves.template slaves 并重命名slaves
cp slaves.template slaves
步骤5 使用vi slaves命令编辑slaves配置文件,指定从节点IP
$vi slaves
Slave1
Slave2
4.分发文件
$scp -r /opt/module/spark/ slave1:/opt/module/
$ scp -r /opt/module/spark/ slave2:/opt/module/
5 启动spark集群
cd ..(回到spark目录)
步骤2 先使用ssh命令切到slave1、slave2,使用jps查看各节点进程,主节点有master,从节点有worker
步骤3 访问spark管理界面(master) http://192.168.196.101:8080,如图:
看到该状态
边栏推荐
猜你喜欢
随机推荐
工厂模式理解了没有?
[c] Detailed explanation of operators (1)
什么是幂等
以赛促练-力扣第304场周赛反思(持续更新中)
js函数防抖和函数节流及其他使用场景
[C题目]力扣138. 复制带随机指针的链表
golang 刷leetcode:将字符串翻转到单调递增
嗨!不来看一下如何骚气十足的登陆MySQL嘛?
win10安全中心设置不扫描某个文件夹的方法
JumpServer开源堡垒机完成龙芯架构兼容性认证
最近火爆朋友圈的“广告电商”,核心商业模式是什么,广告收入真实靠谱吗?
千人优学 | GBase 8s数据库2022年6月大学生专场实训圆满结束
SQL基础练习题(mysql)
vscode如何能将输出从OUTPUT改为TERMINAL或者DebugConsole
解道6-编程技术3
golang刷leetcode: 卖木头块
golang刷letcode:公司命名
YAML文件格式
【STM32学习2】存储器相关概念与操作
js: 实现一个cached缓存函数计算结果