Spark大数据分析平台搭建
首先安装虚拟机并启动root用户,更改两个主机的用户名,一个是master,一个是slave,接着创建hadoop用户。
两台主机的IP地址分别为:
1 | master 192.168.85.130 |
安装jdk
从hadoop用户名登录ubuntu
登录Java Downloads | Oracle下载jdk
将下载好的jdk复制到usr/java目录下,解压到root中
1 | su root |
修改/etc/profile文件,加入
1 | JAVA_HOME=/usr/java/jdk-18.0.1 |
然后执行
1 | source /etc/profile |
java-version能正常显示,则成功
配置后需重启电脑才能继续使用
安装ssh,首先进入root
1 | su root |
master主机执行
1 | scp ~/.ssh/id_rsa.pub hadoop@slave:/home/hadoop/ |
能够正常连接说明安装成功
Hadoop下载
Index of /apache/hadoop/common/hadoop-2.10.1 (bit.edu.cn)
1 | su root |
之后把/usr/local/hadoop/etc/hadoop中的slaves文件改为slave
之后把/usr/local/hadoop/etc/hadoop里的core-site.xml文件中的
1 | <property> |
之后把/usr/local/hadoop/etc/hadoop里的hdfs-site.xml文件中的
1 | <property> |
接着在命令行打开
1 | cd /usr/local/hadoop/etc/hadoop |
然后修改mapred-site.xml文件中的
1 | <property> |
然后修改yarn-site.xml文件中的
1 | <property> |
然后命令行执行:
1 | cd /usr/local |
把文件传到spark2
然后打开spark2
1 | su root |
打开spark1
1 | cd /usr/local/hadoop/ |
修改/usr/local/hadoop/etc/hadoop中的hadoop-env文件
最后一行加上export JAVA_HOME=/usr/java/jdk-18.0.1
spark2同样加上export JAVA_HOME=/usr/java/jdk-18.0.1
然后回到spark1执行bin/hdfs namenode -format
成功