spark1(默认CDH自带版本)不存在这个问题,主要是升级了spark2(CDHparcel升级)版本安装后需要依赖到spark1的旧配置去读取hadoop集群的依赖包。1./etc/spark2/conf目录需要指向/hadoop1/cloudera-manager/parcel-r...

spark1(默认CDH自带版本)不存在这个问题,主要是升级了spark2(CDHparcel升级)版本安装后需要依赖到spark1的旧配置去读取hadoop集群的依赖包。
1./etc/spark2/conf目录需要指向/hadoop1/cloudera-manager/parcel-repo/SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904/etc/spark2/conf.dist
(命令ln -s /hadoop1/cloudera-manager/parcel-repo/SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904/etc/spark2/conf.dist /etc/spark2/conf)
2.指向的目录里的spark-env.sh里面必须有这两个配置其中一个,都是去引用了hadoop环境jar包
(export SPARK_DIST_CLASSPATH=$(paste -sd: "$SELF/classpath.txt")或export SPARK_DIST_CLASSPATH=$(hadoop classpath))
3.利用oozie管理启动spark应用需要关注这个配置参数:oozie.service.SparkConfigurationService.spark.configurations 值:*=/etc/spark2/conf,需要把这个参数同步到每一台机器。这个参数含义是oozie启动spark时候哪里找配置文件
错误Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream排查思路
原文:https://www.cnblogs.com/yaohaitao/p/11703753.html
本文标题为:错误Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream排查思路


基础教程推荐
- Apache服务器配置攻略3 2022-09-01
- 实战Nginx_取代Apache的高性能Web服务器 2023-09-29
- centos 7 安装及配置zabbix agent 2023-09-24
- Apache Hudi数据布局黑科技降低一半查询时间 2022-10-06
- apache和nginx结合使用 2023-09-10
- nginx.conf(centos7 1.14)主配置文件修改 2023-09-23
- 服务器添加git钩子的步骤 2022-12-12
- linux之conda环境安装全过程 2023-07-11
- linux下安装apache与php;Apache+PHP+MySQL配置攻略 2023-08-07
- IIS 6 的 PHP 最佳配置方法 2022-09-01