spark以standalone运行时的日志清理_spark standalone的任务杀不掉-CSDN博客

网站介绍:文章浏览阅读1.1k次。spark运行任务的日志一直没太大关注,原因是硬盘资源充足,除非任务出错时才去看一下,但没有清理这些日志的习惯。直到最近遇到的一个问题是,硬盘资源严重缺乏,不得不需要定时去清理日志。第一时间去看下spark本身的配置,是否支持定时清理日志的选项,毕竟spark那么成熟,相信很多人都面临过这样的问题。从spark-env.sh里面看到SPARK_WORKER_OPTS和SPARK_HISTORY..._spark standalone的任务杀不掉