Spark的Standalone模式-CSDN博客

网站介绍:文章浏览阅读204次。Standalone模式构建一个由Master+Slave构成的Spark集群,Spark运行在集群中修改spark-env.sh文件把YARN_CONF_DIR=/opt/module/Hadoop/hadoop-2.7.7/etc/hadoop注释掉,这个是我在Yarn模式下的修改# spark启动时master的启动主机#YARN_CONF_DIR=/opt/module/Hado..._spark的standalone模式