下载软件
安装软件及配置
安装jdk
1 | # 解压 jdk-8u171-linux-x64.tar.gz |
安装spark
1 | # 解压spark-2.4.3-bin-hadoop2.7.tgz |
配置spark
1 | # cd ${SPARK_HOME}/conf |
spark_env.sh配置参数:http://spark.apache.org/docs/latest/spark-standalone.html#cluster-launch-scripts
配置hosts
1 | vim /etc/hosts |
配置主机间免密登陆
1 | ssh-keygen -t rsa # 一路Enter |
启动spark集群
一般来说,Standalone模式的Spark集群的启动有以下的几种方式::
1. master,slave一起启动:
1 | cd $SPARK_HOME |
2. master,slave节点分开启动:
1 | cd $SPARK_HOME |
停止spark集群
1 | cd $SPARK_HOME |
Spark配置参数详解
Spark提供三个位置用来配置系统:
- Spark属性:控制大部分的应用程序参数,可以用SparkConf对象或者Java系统属性设置
- 环境变量:可以通过每个节点的
conf/spark-env.sh
脚本设置。例如IP地址、端口等信息 - 日志配置:可以通过log4j.properties配置
参考:https://www.cnblogs.com/yangcx666/p/8723826.html