spark读取MySQL的方式及并发度优化_spark 读写mysql数据量过大-CSDN博客

网站介绍:文章浏览阅读4.3k次,点赞3次,收藏13次。前段时间用sparksession读取MySQL的一个表的时候,出现耗时长,频繁出现oom等情况,去网上查找了一下,是因为用的默认读取jdbc方式,单线程任务重,所以出现耗时长,oom等现象.这时候需要提高读取的并发度.现简单记录下.看sparsession DataFrameReader源码,读取jdbc有三个方法重载.单partition,无并发def jdbc(url: String,..._spark 读写mysql数据量过大