当前位置:网站首页>搭建Spark开发环境(第二弹)
搭建Spark开发环境(第二弹)
2022-08-02 21:09:00 【发量不足】
欢迎来到本博客
本篇介绍的是Spark环境的准备
预更新:体验第一个Spark程序
目录
一.环境准备
配置环境:Hadoop、spark(本人是2.0.0)、JDK(1.8)、Linux(Centos6.7)
二·.spark的部署方式
spark部署模式分为Local模式和集群模式,在local模式,常用于本地开发与测试,集群模式又分为standalone模式(集群单机模式)、Yarn模式、mesos模式

三.spark集群安装部署
1下载spark安装包.
下载spark安装包 在Apache spark官网下载网址:Downloads | Apache Spark(最新且稳定的版本是3.2.1,本人安装版本为2.0.0)

2.解压spark安装包
步骤1 先 alt+P,再拉spark-2.3.2-bin-hadoop2.7.tgz上传/opt/software目录下

回到master切换hadoop用户
$su Hadoop
$ cd /opt/software
$ls

$ tar -zxvf spark-2.3.2-bin-hadoop2.7.tgz -C /opt/module/
3.修改配置文件
步骤1 使用mv命令将spark-2.3.2-bin-hadoop2.7重名为spark
$cd /opt/module
$ mv spark-2.3.2-bin-hadoop2.7/ spark

步骤2 先进入/opt/module/spark/conf/目录,将spark-env.sh.template复制给spark-env.sh
$ cd /spark/conf
$ ls
$ cp spark-env.sh.template spark-env.sh


$vi spark-env.sh
![]()
# Java环境变量
export JAVA_HOME=/opt/module/jdk1.8.0_144
# 指定master的 IP
export SPARK_MASTER_HOST=master
# 指定master的 端口
export SPARK_MASTER_PORT=7077

步骤4 复制slaves.template slaves 并重命名slaves
cp slaves.template slaves


步骤5 使用vi slaves命令编辑slaves配置文件,指定从节点IP
$vi slaves
Slave1
Slave2

4.分发文件
$scp -r /opt/module/spark/ slave1:/opt/module/
$ scp -r /opt/module/spark/ slave2:/opt/module/
![]()
![]()
5 启动spark集群
cd ..(回到spark目录)

步骤2 先使用ssh命令切到slave1、slave2,使用jps查看各节点进程,主节点有master,从节点有worker

步骤3 访问spark管理界面(master) http://192.168.196.101:8080,如图:
看到该状态
边栏推荐
猜你喜欢
随机推荐
C# Monitor class
sre成长之路
解道7-编程技术4
如何成为一名正义黑客?你应该学习什么?
【C语言进阶】--指针典题剖析
YOLOv5+BiSeNet——同时进行目标检测和语义分割
Intensive reading of the Swin Transformer paper and analysis of its model structure
圆锥折射作为偏振计量工具的模拟
行业 SaaS 微服务稳定性保障实战
【流媒体】推流与拉流简介
SRv6网络演进面临的挑战
字节内部技术图谱 惊艳级实用
单例模式你会几种写法?
Ansible安装与配置
华为设备配置BFD多跳检测
Command line startup FAQs and solutions
命令行启动常见问题及解决方案
性能测试 - 理论
最近火爆朋友圈的“广告电商”,核心商业模式是什么,广告收入真实靠谱吗?
宝塔搭建实测-基于ThinkPHP5.1的wms进销存源码

![[C题目]力扣142. 环形链表 II](/img/b0/1e92f0f178089fc12cf88072d28912.png)






