网站介绍:文章浏览阅读2.1k次。准备工作:1、需要安装配置好hive,如果不会安装可以跳转到Linux下编写脚本自动安装hive2、需要安装配置好spark,如果不会安装可以跳转到Spark安装与配置(单机版)3、需要安装配置好Hadoop,如果不会安装可以跳转到Linux安装配置Hadoop2.6操作步骤:1、将hive的conf目录下的hive-site.xml拷贝到spark的conf目录下(也可以建立软连接)cp /opt/soft/hive110/conf/hive-site.xml /opt/soft/spark24_spark整合hive
- 链接地址:https://blog.csdn.net/weixin_44911081/article/details/121858327
- 链接标题:Spark整合hive(保姆级教程)-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:5550
- 网站标签:spark整合hive