在此之前,已经完成了Ubuntu16.04环境下安装配置Hadoop2.8.1集群和Ubuntu16.04环境下Scala-2.11.7的安装与配置。
- 系统:Ubuntu
- 版本:16.04
- 处理器:Intel(R) Core(TM) i7-7700K CPU @ 4.20GHz
- 内存:2.0GB
- 类型:64位操作系统 64位处理器
- 版本:Hadoop-2.8.1
- Master:192.168.73.130
- Slave1:192.168.73.132
- Slave2:192.168.73.133
- 安装与配置过程中的所有操作均在Master节点上完成。
- spark-2.2.0-bin-hadoop2.7.tgz 百度网盘
- 下载spark-2.2.0-bin-hadoop2.7.tgz到/root/tmp/文件夹下;
- 解压文件:
tar -zxvf ./spark-2.2.0-bin-hadoop2.7.tgz -C /usr/local/; - 重命名文件:
mv /usr/local/spark-2.2.0-bin-hadoop2.7/ /usr/local/spark/;
- 进入spark根目录:
cd $SPARK_HOME; - 使用命令
cp conf/spark-env.sh.template conf/spark-env.sh复制文件,并配置新复制的文件,vim conf/spark-env.sh,内容如下:
export JAVA_HOME=/usr/local/jdk #Java根目录
export SCALA_HOME=/usr/local/scala #Scala根目录
export HADOOP_HOME=/usr/local/hadoop #Hadoop根目录
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop #Hadoop集群配置文件的目录
export SPARK_MASTER_IP=Master #Spark集群的Master节点的地址
export SPARK_WORKER_MEMORY=2g #每个Worker节点能够最大分配给exectors的内存大小
export SPARK_WORKER_CORES=2 #每个Worker节点所占有的CPU核数目
export SPARK_WORKER_INSTANCES=1 #每台机器上开启的Worker节点的数目
- 使用命令
cp conf/slaves.template conf/slaves复制文件,并配置新复制的文件,vim conf/slaves,内容如下:
Slave1
Slave2
- 同步文件到Slave1:
rsync -av /usr/local/spark/ Slave1:/usr/local/spark/; - 同步文件到Slave2:
rsync -av /usr/local/spark/ Slave2:/usr/local/spark/;
$ /usr/local/hadoop/sbin/start-dfs.sh
$ /usr/local/spark/sbin/start-all.sh$ /usr/local/spark/sbin/stop-all.sh
$ /usr/local/hadoop/sbin/stop-dfs.sh