当前位置:网站首页>搭建Spark开发环境
搭建Spark开发环境
2022-08-02 14:17:00 【发量不足】
实验报告
①.spark集群基础
查看自己三个节点环境的ip地址:ip addre
Master:
Slave1:
Slave2:
切换hadoop用户查看master能否切换另外两台slave然后配置另外两台可以自由切换
配置成刚才三个节点的ip地址
配置另外两个节点的免密快速访问(修改配置需要管理员root权限才能修改)
②.Spark集群安装部署
1.下载Spark安装包
Apache Spark官网httpd://spark.apache.org/downloads.html下载使用。
2.解压Spark安装包
在CRT页面Alt+P打开文件传输窗口
cd /opt/software/
ls
回到CRT页面切换hadoop用户
su Hadoop
cd /opt/software/
查看是否传输成功
切换root修改scala的文件权限给hadoop
su Hadoop
cd /opt/software
su root
chown -R hadoop:hadoop /opt/
修改完成后解压scala
tar -zxvf scala-2.11.8.tgz -C /opt/module/
清屏
3.修改配置文件
vi /etc/profile
添加如下配置:
export SCALA_HOME=/opt/module/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin
配置完后让配置生效
然后检查版本
分发文件:修改完1配置文件后将master目录分发至slave1和slave2两个节点
scp -r /opt/module/scala-2.11.8/ slave1:/opt/module/
scp -r /opt/module/scala-2.11.8/ slave2:/opt/module/
切换slave1用户使用管理员身份
ssh slave1
su root
vi /etc/profile
添加环境配置:
export SCALA_HOME=/opt/module/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin
:wq保存
查看是否成功
scala -version
切换slave2用户使用管理员身份
ssh slave2
su root
vi /etc/profile
添加环境配置:
export SCALA_HOME=/opt/module/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin
:wq保存
查看是否成功
scala -version
边栏推荐
猜你喜欢
随机推荐
你的站点可能还没有准备好用于Site KitSite Kit 无法访问 WordPress REST API。请确保其已在您的站点上启用。
【Solidity智能合约基础】-- 基础运算与底层位运算
Feign Client 超时时间配置不生效
char array/string array|array pointer/pointer array/
smart_rtmpd 轻松突破 C100K 测试
webrtc 中怎么根据 SDP 创建或关联底层的 socket 对象?
【线程】 理解线程(并行)线程同步的处理(信号量,互斥锁,读写锁,条件变量)
【软件测试】基础篇
hybrid 实现同网段但不同vlan之间通讯
JMM&synchronized&volatile详解
Linux下mysql的彻底卸载
UINIX 高级环境编程杂项之限制
大厂年薪50w+招聘具有测试平台开发能力的测试工程师
Oauth2.0 资源服务器搭建
IDEA如何进行远程Debug
优先级表和Ascll表
【网络安全】学习笔记 --02 安全通信协议
网络运维系列:二级域名启用与配置
Oauth2.0 resource server construction
Mobile copy constructor