Spark运行模式之Standalone模式_spark-shell启动standalone-CSDN博客

网站介绍:文章浏览阅读733次。概述构建一个由Master+Slave构成的Spark集群,Spark运行在集群中安装使用1)进入spark安装目录下的conf文件夹 [atguigu@hadoop102 module]$ cd spark/conf/2)修改配置文件名称 [atguigu@hadoop102 conf]$ mv slaves.template slav..._spark-shell启动standalone