spark on yarn运行产生缺jar包错误及解决办法

xiaoxiao2021-02-28  82

1.问题描述:

使用spark 集成elasticSearch时,--jars 来添加依赖的jar包,使用local模式程序正常,使用yarn模式时会出现找不到jar包的情况。 报错信息如下:         1.java.lang.NoSuchMethodError: com.google.common.util.concurrent.MoreExecutors.directExecutor()Ljava/util/concurrent/Executor         2.Elasticsearch Java API from web application-error: java.lang.NoClassDefFoundError: Could not initialize class org.elasticsearch.threadpool.ThreadPool              3.java.lang.NoSuchFieldError: LUCENE_5_5_2

2.解决办法:

        提交参数添加  --conf spark.executor.extraClassPath=$spark_jars 参考:http://blog.csdn.net/u010454030/article/details/70054822
转载请注明原文地址: https://www.6miu.com/read-45539.html

最新回复(0)