Spark正确编译Jar包

Spark的插件,在配置jar包导出时,默认会把Hadoop及Scala等第三方库打包进JAR包,这会造成文件重复。从而导致各种错误,原因是JAR包中依赖与Spark运行环境的依赖文件重复导致加载错误,从而导致一些异常。a

 

a