下载软件
安装软件及配置
安装jdk
1  | # 解压 jdk-8u171-linux-x64.tar.gz  | 
安装spark
1  | # 解压spark-2.4.3-bin-hadoop2.7.tgz  | 
配置spark
1  | # cd ${SPARK_HOME}/conf  | 
spark_env.sh配置参数:http://spark.apache.org/docs/latest/spark-standalone.html#cluster-launch-scripts
配置hosts
1  | vim /etc/hosts  | 
配置主机间免密登陆
1  | ssh-keygen -t rsa # 一路Enter  | 
启动spark集群
一般来说,Standalone模式的Spark集群的启动有以下的几种方式::
1. master,slave一起启动:
1  | cd $SPARK_HOME  | 
2. master,slave节点分开启动:
1  | cd $SPARK_HOME  | 
停止spark集群
1  | cd $SPARK_HOME  | 
Spark配置参数详解
Spark提供三个位置用来配置系统:
- Spark属性:控制大部分的应用程序参数,可以用SparkConf对象或者Java系统属性设置
 - 环境变量:可以通过每个节点的
conf/spark-env.sh脚本设置。例如IP地址、端口等信息 - 日志配置:可以通过log4j.properties配置
 
参考:https://www.cnblogs.com/yangcx666/p/8723826.html