Spark安装部署Local_pyspark_python和 java_home 需要同样配置在: `/root/.bashrc`-CSDN博客

网站介绍:文章浏览阅读277次,点赞2次,收藏2次。生命无罪,健康万岁,我是laity。以下操作都是基于你已经把hadoop集群搭建好了的情况下Spark的运行模式上面的部署安装属于(本地模式)Local部署Spark的架构角色个人认为很重要 - 方便理解Spark和YARNPython环境部署我们用的python环境是Anaconda3# 1.将`Anaconda3-2021.05-Linux-x86_64.sh`文件到Linux服务器上# 2.安装到 /opt/laityInstall 下 sh ./Anaconda_pyspark_python和 java_home 需要同样配置在: `/root/.bashrc`中