使用Spark SQL读取Hive上的数据

Similar documents
Apache CarbonData集群模式使用指南

通过Hive将数据写入到ElasticSearch

Spark读取Hbase中的数据

使用Cassandra和Spark 2.0实现Rest API服务

使用MapReduce读取XML文件

Hive:用Java代码通过JDBC连接Hiveserver

SparkR(R on Spark)编程指南

Guava学习之Resources

Hadoop 2.2.0安装和配置lzo

在Fedora上部署Hadoop2.2.0伪分布式平台

Flume-ng与Mysql整合开发

在Spring中使用Kafka:Producer篇

Flink快速上手(QuickStart)

Spark作业代码(源码)IDE远程调试

Hadoop元数据合并异常及解决方法

韶关:神奇丹霞

三种方法实现Hadoop(MapReduce)全局排序(1)

哼, 你 們 不 回 答 又 怎 麼 樣? 不 管 是 多 大 來 頭, 現 在 都 被 血 魔 吞 噬 無 蹤 了 你 們 幾 個 真 是 太 過 分, 我 不 犯 你 們, 你 們 卻 一 天 到 晚 來 挑 釁 我 教 尊 冷 笑 著 說 道 嗚, 大 人 土 地 大 姐 跪 下 來, 流 下

伊春:醉人林都

Kafka客户端是如何找到 leader 分区的

Hive几种数据导入方式

培 训 机 构 介 绍 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培

六种使用Linux命令发送带附件的邮件

关林:武圣陵寝

泰山:五岳独尊

Ubuntu和CentOS如何配置SSH使得无密码登陆

国内26省市新能源汽车推广规划已出台

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基

北戴河:海阔天空

PowerPoint 演示文稿

将 MySQL 的全量数据导入到 Apache Solr 中

Spark 2.0介绍:在Spark SQL中定义查询优化规则


西岭雪山滑雪场

使用Apache Spark将数据写入ElasticSearch

Microsoft Word 電腦軟體設計.doc

是 证 券 市 场 的 后 来 者, 但 在 前 景 广 阔 的 道 路 上 前 行, 终 将 成 为 这 个 市 场 的 领 先 者, 这 里 会 给 你 一 个 巨 大 的 舞 台, 这 里 有 你 需 要 的 机 会, 这 里 欢 迎 优 秀 的 你! 二 招 收 条 件 1. 遵 守 国 家

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并

untitled

PowerPoint 演示文稿

江人发2009年第49号突发事件应对法培训.doc

Apache Spark 2.4 新增内置函数和高阶函数使用介绍

電機工程系認可證照清單 /7/1

江门:中国第一侨乡

是 喔, 就 是 那 個 在 BBS 醫 療 版 跟 你 嗆 聲, 自 稱 有 三 十 多 年 推 拿 經 驗 的 大 叔 嗎? 一 個 看 來 頗 為 清 秀 的 女 生 問 道, 她 語 氣 中 略 感 訝 異 是 啊, 什 麼 推 拿 按 摩 有 多 好, 還 要 人 生 病 盡 量 不 要

教育扩张能改善收入分配差距吗?——来自CHNS2006年数据的证据

山水文化,市井人家——以湖州邱城小镇的概念性规划为例

Flink快速上手之Scala API使用

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

6-1 Table Column Data Type Row Record 1. DBMS 2. DBMS MySQL Microsoft Access SQL Server Oracle 3. ODBC SQL 1. Structured Query Language 2. IBM

帝国CMS下在PHP文件中调用数据库类执行SQL语句实例

目 录 第 一 部 分 档 案 局 概 况 一 主 要 职 责 二 部 门 决 算 单 位 构 成 第 二 部 分 档 案 局 2016 年 度 部 门 预 算 表 一 2016 年 度 市 级 部 门 收 支 预 算 总 表 二 2016 年 度 市 级 部 门 支 出 预 算 表 三 2016

2015 年 度 收 入 支 出 决 算 总 表 单 位 名 称 : 北 京 市 朝 阳 区 卫 生 局 单 位 : 万 元 收 入 支 出 项 目 决 算 数 项 目 ( 按 功 能 分 类 ) 决 算 数 一 财 政 拨 款 一 一 般 公 共 服 务 支 出 二

目錄

Microsoft Word 期交所簡章 _110805_

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

59 1 CSpace 2 CSpace CSpace URL CSpace 1 CSpace URL 2 Lucene 3 ID 4 ID Web 1. 2 CSpace LireSolr 3 LireSolr 3 Web LireSolr ID

商 业 城 大 华 标 准 70 万 70 万 驰 宏 锌 锗 瑞 华 标 准 140 万 150 万 亚 星 锚 链 江 苏 公 证 天 业 标 准 80 万 80

欢迎辞

金 陵 饭 店 中 兴 华 已 报 备 按 照 国 资 委 要 求 定 期 轮 换 天 衡 已 报 备 按 照 国 资 委 要 求 定 期 轮 换 *ST 中 富 中 喜 已 报 备 业 务 约 定 书 到 期 普

辉 丰 股 份 重 大 事 项, 特 停 南 方 轴 承 临 时 停 牌 德 力 股 份 临 时 停 牌 瑞 丰 光 电 临 时 停 牌 联 建 光 电 临 时 停 牌 卡 奴 迪 路 临 时 停 牌

日 涨 幅 偏 离 值 达 到 7% 的 前 五 只 证 券 : 温 氏 股 份 ( 代 码 ) 涨 幅 偏 离 值 :11.68% 成 交 量 :1752 万 股 成 交 金 额 : 万 元 机 构 专 用 机 构 专 用

上市公司股东大会投票信息公告( )

昆 明 机 床 瑞 华 已 报 备 前 任 服 务 年 限 较 长 毕 马 威 华 振 已 报 备 未 与 客 户 未 就 2015 年 审 计 收 费 达 成 一 致 意 见 中 国 核 电 天 健 已 报 备 定

金 利 科 技 临 时 停 牌 凤 凰 光 学 重 要 事 项 未 公 告, 连 续 停 牌 安 源 煤 业 重 要 事 项 未 公 告, 连 续 停 牌 万 泽 股 份 临 时 停 牌 爱 康 科 技 重 大 事 项, 特 停

郑 州 煤 电 重 要 事 项 未 公 告, 连 续 停 牌 金 圆 股 份 重 大 事 项, 特 停 永 鼎 股 份 重 要 事 项 未 公 告, 连 续 停 牌 长 城 影 视 临 时 停 牌 天 兴 仪 表 临 时 停 牌

卧 龙 地 产 重 要 事 项 未 公 告, 连 续 停 牌 春 兴 精 工 临 时 停 牌 *ST 沧 大 重 要 事 项 未 公 告, 连 续 停 牌 天 地 源 重 要 事 项 未 公 告, 连 续 停 牌 汇 冠 股 份

股票代码: 股票简称:*ST新梅 编号:临

东 华 能 源 江 苏 苏 亚 金 诚 已 报 备 因 地 域 及 审 计 时 间 安 排 等 原 因 中 兴 华 已 报 备 客 户 重 新 选 聘 会 计 师 事 务 所 亿 帆 鑫 富 立 信 已 报 备 客

光 一 科 技 重 大 事 项, 特 停 茂 业 商 业 重 要 事 项 未 公 告, 连 续 停 牌 浙 富 控 股 重 大 事 项, 特 停 键 桥 通 讯 重 大 事 项, 特 停 黑 牛 食 品 重 大 事 项, 特 停

金 圆 股 份 重 大 事 项, 特 停 长 城 影 视 临 时 停 牌 天 兴 仪 表 临 时 停 牌 商 赢 环 球 重 要 事 项 未 公 告, 连 续 停 牌 荣 安 地 产 临 时 停 牌 中 南 文 化

Untitled Document

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

三种恢复 HDFS 上删除文件的方法

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

本 课 程 作 为 非 计 算 机 专 业 本 科 通 识 课 程, 是 一 门 理 论 和 实 践 紧 密 结 合 的 实 用 课 程, 内 容 包 括 计 算 机 基 础 部 分 和 程 序 设 计 部 分 计 算 机 基 础 部 分 涵 盖 计 算 机 软 硬 件 组 成 数 制 表 示 操

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

案例分享产品文档

學 科 100% ( 為 單 複 選 題, 每 題 2.5 分, 共 100 分 ) 1. 請 參 閱 附 圖 作 答 : (A) 選 項 A (B) 選 項 B (C) 選 項 C (D) 選 項 D Ans:D 2. 下 列 對 於 資 料 庫 正 規 化 (Normalization) 的 敘

张家口:塞外明珠

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc

据传-蚂蚁金服350亿美元开约A股IPO,马云身价又要暴涨

Ioncube Php Encoder 8 3 Crack 4. llamaba octobre traslado General Search colony

第6章  数据库技术基础

Microsoft PowerPoint - DFD.PPT

目录 1 HIVE 介绍 HIVE 介绍 HIVE 运行架构 HIVE 数据模型 HIVE 数据类型 HIVE 与关系数据库的区别 HIVE 搭建过程 安装 MYSQL 数据库

30.00% 25.00% 25.00% 22.50% 20.00% 15.00% 12.50% 15.00% 12.50% 10.00% 7.50% 5.00% 2.50% 2.50% 0.00% 文 学 理 学 工 学 法 学 教 育 学 管 理 学 历 史 学 艺 术 学 ( 三 ) 学 生

<4D F736F F D C4EAA1B6B1CFD2B5C2DBCEC4D6B8B5BCCAD6B2E1A1B7A3A8B3F5B8E5A3A92E646F63>

PDF 入不思議解脫境界普賢行願品 ... 《大方廣佛華嚴經卷第四十》

业 务 与 运 营 Business & Operation (Transform) 加 载 (Load) 至 目 的 端 的 过 程, 该 部 分 在 数 据 挖 掘 和 分 析 过 程 中 为 最 基 础 的 一 部 分 一 个 良 好 的 ETL 系 统 应 该 有 以 下 几 个 功 能 1

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

三种方法实现Hadoop(MapReduce)全局排序(2)

天津天狮学院关于修订2014级本科培养方案的指导意见

Spark1.4中DataFrame功能加强,新增科学和数学函数

规模数据的机制 Hive 定义了简单的类 SQL 查询语言, 称为 HQL, 它允许熟悉 SQL 的用户查询数据 同时, 这个语言也允许熟悉 MapReduce 开发者的开发自定义的 Mapper 和 Reducer 来处理内建的 Mapper 和 Reducer 无法完成的复杂的分析工作 2.1

臺銀人壽「98年九至十一職等人員甄試」

Transcription:

使用 Spark SQL 读取 Hive 上的数据 Spark SQL 主要目的是使得用户可以在 Spark 上使用 SQL, 其数据源既可以是 RDD, 也可以是外部的数据源 ( 比如 Parquet Hive Json 等 ) Spark SQL 的其中一个分支就是 Spark on Hive, 也就是使用 Hive 中 HQL 的解析 逻辑执行计划翻译 执行计划优化等逻辑, 可以近似认为仅将物理执行计划从 MR 作业替换成了 Spark 作业 本文就是来介绍如何通过 Spark SQL 来读取现有 Hive 中的数据 不过, 预先编译好的 Spark assembly 包是不支持 Hive 的, 如果你需要在 Spark 中使用 Hive, 必须重新编译, 加上 -Phive 选项既可, 具体如下 : [iteblog@www.iteblog.com spark]$./makedistribution.sh --tgz -Phadoop-2.2 -Pyarn -DskipTests -Dhadoop.version=2.2.0 -Phive 编译完成之后, 会在 SPARK_HOME 的 lib 目录下多产生三个 jar 包, 分别是 datanucleus-api-jdo -3.2.6.jar datanucleus-core-3.2.10.jar datanucleusrdbms-3.2.9.jar, 这些包都是 Hive 所需要的 下面就开始介绍步骤 一 环境准备 为了让 Spark 能够连接到 Hive 的原有数据仓库, 我们需要将 Hive 中的 hive-site.xml 文件拷贝到 Spark 的 conf 目录下, 这样就可以通过这个配置文件找到 Hive 的元数据以及数据存放 如果 Hive 的元数据存放在 Mysql 中, 我们还需要准备好 Mysql 相关驱动, 比如 :mysqlconnector-java-5.1.22-bin.jar 二 启动 spark-shell 环境准备好之后, 为了方便起见, 我们使用 spark-shell 来进行说明如何通过 Spark SQL 读取 Hive 中的数据 我们可以通过下面的命令来启动 spark-shell: [iteblog@www.iteblog.com spark]$ bin/spark-shell --master yarn-client --jars lib/mysqlconnector-java-5.1.22-bin.jar... 15/08/27 18:21:25 INFO repl.sparkiloop: Created spark context.. Spark context available as sc.... 15/08/27 18:21:30 INFO repl.sparkiloop: Created sql context (with Hive support).. SQL context available as sqlcontext. 1 / 8

启动 spark-shell 的时候会先向 ResourceManager 申请资源, 而且还会初始化 SparkContext 和 SQLContext 实例 sqlcontext 对象其实是 HiveContext 的实例,sqlContext 是进入 Spark SQL 的切入点 接下来我们来读取 Hive 中的数据 scala> sqlcontext.sql("create EXTERNAL TABLE IF NOT EXISTS ewaplog (key STRING, value ST RING) STORED AS INPUTFORMAT 'com.hadoop.mapred.deprecatedlzotextinputformat' OUTPUTFOR MAT 'org.apache.hadoop.hive.ql.io.hiveignorekeytextoutputformat' LOCATION '/user/iteblog/ewa plog' ") res0: org.apache.spark.sql.dataframe = [result: string] scala> sqlcontext.sql("load DATA LOCAL INPATH '/data/test.lzo' INTO TABLE ewaplog") res1: org.apache.spark.sql.dataframe = [result: string] scala> sqlcontext.sql("from ewaplog SELECT key, value").collect().foreach(println) [12,wyp] [23,ry] [12,wyp] [23,ry] 我们先创建了 ewaplog 表, 然后导入数据, 最后查询 我们可以看出所有的 SQL 和在 Hive 中是一样的, 只是在 Spark 上运行而已 在执行 SQL 的时候, 默认是调用 hiveql 解析器来解析 SQL 的 当然, 你完全可以调用 Spark SQL 内置的 SQL 解析器 sql, 可以通过 spark.sql.dialect 参数来设置 但是建议还是使用 hivesql 解析器, 因为它支持的语法更多, 而且还支持 Hive 的 UDF 函数, 在多数情况下推荐使用 hivesql 解析器 如果你在创建 HiveContext 的时候出现了类似以下的错误 : 15/11/20 16:20:07 WARN metadata.hive: Failed to access metastore. This class should not acc essed in runtime. org.apache.hadoop.hive.ql.metadata.hiveexception: java.lang.runtimeexception: Unable to in stantiate org.apache.hadoop.hive.ql.metadata.sessionhivemetastoreclient at org.apache.hadoop.hive.ql.metadata.hive.getalldatabases(hive.java:1236) at org.apache.hadoop.hive.ql.metadata.hive.reloadfunctions(hive.java:174) at org.apache.hadoop.hive.ql.metadata.hive.<clinit>(hive.java:166) at org.apache.hadoop.hive.ql.session.sessionstate.start(sessionstate.java:503) at org.apache.spark.sql.hive.client.clientwrapper.<init>(clientwrapper.scala:171) at org.apache.spark.sql.hive.hivecontext.executionhive$lzycompute(hivecontext.scala:162) at org.apache.spark.sql.hive.hivecontext.executionhive(hivecontext.scala:160) 2 / 8

at org.apache.spark.sql.hive.hivecontext.<init>(hivecontext.scala:167) at sun.reflect.nativeconstructoraccessorimpl.newinstance0(native Method) at sun.reflect.nativeconstructoraccessorimpl.newinstance(nativeconstructoraccessorimpl.ja va:57) at sun.reflect.delegatingconstructoraccessorimpl.newinstance(delegatingconstructoraccesso rimpl.java:45) at java.lang.reflect.constructor.newinstance(constructor.java:526) at org.apache.spark.repl.sparkiloop.createsqlcontext(sparkiloop.scala:1028) at $line4.$read$$iwc$$iwc.<init>(<console>:9) at $line4.$read$$iwc.<init>(<console>:18) at $line4.$read.<init>(<console>:20) at $line4.$read$.<init>(<console>:24) at $line4.$read$.<clinit>(<console>) at $line4.$eval$.<init>(<console>:7) at $line4.$eval$.<clinit>(<console>) at $line4.$eval.$print(<console>) at org.apache.spark.repl.sparkimain$readevalprint.call(sparkimain.scala:1065) at org.apache.spark.repl.sparkimain$request.loadandrun(sparkimain.scala:1340) at org.apache.spark.repl.sparkimain.loadandrunreq$1(sparkimain.scala:840) at org.apache.spark.repl.sparkimain.interpret(sparkimain.scala:871) at org.apache.spark.repl.sparkimain.interpret(sparkimain.scala:819) at org.apache.spark.repl.sparkiloop.reallyinterpret$1(sparkiloop.scala:857) at org.apache.spark.repl.sparkiloop.interpretstartingwith(sparkiloop.scala:902) at org.apache.spark.repl.sparkiloop.command(sparkiloop.scala:814) at org.apache.spark.repl.sparkiloopinit$$anonfun$initializespark$1.apply(sparkiloopinit.sca la:132) at org.apache.spark.repl.sparkiloopinit$$anonfun$initializespark$1.apply(sparkiloopinit.sca la:124) at org.apache.spark.repl.sparkimain.bequietduring(sparkimain.scala:324) at org.apache.spark.repl.sparkiloopinit$class.initializespark(sparkiloopinit.scala:124) at org.apache.spark.repl.sparkiloop.initializespark(sparkiloop.scala:64) s$1$$anonfun$apply$mcz$sp$5.apply$mcv$sp(sparkiloop.scala:974) at org.apache.spark.repl.sparkiloopinit$class.runthunks(sparkiloopinit.scala:159) at org.apache.spark.repl.sparkiloop.runthunks(sparkiloop.scala:64) at org.apache.spark.repl.sparkiloopinit$class.postinitialization(sparkiloopinit.scala:108) at org.apache.spark.repl.sparkiloop.postinitialization(sparkiloop.scala:64) s$1.apply$mcz$sp(sparkiloop.scala:991) s$1.apply(sparkiloop.scala:945) 3 / 8

s$1.apply(sparkiloop.scala:945) at scala.tools.nsc.util.scalaclassloader$.savingcontextloader(scalaclassloader.scala:135) at org.apache.spark.repl.sparkiloop.org$apache$spark$repl$sparkiloop$$process(sparkiloo p.scala:945) at org.apache.spark.repl.sparkiloop.process(sparkiloop.scala:1059) at org.apache.spark.repl.main$.main(main.scala:31) at org.apache.spark.repl.main.main(main.scala) at org.apache.spark.deploy.sparksubmit$.org$apache$spark$deploy$sparksubmit$$runmain (SparkSubmit.scala:674) at org.apache.spark.deploy.sparksubmit$.dorunmain$1(sparksubmit.scala:180) at org.apache.spark.deploy.sparksubmit$.submit(sparksubmit.scala:205) at org.apache.spark.deploy.sparksubmit$.main(sparksubmit.scala:120) at org.apache.spark.deploy.sparksubmit.main(sparksubmit.scala) Caused by: java.lang.runtimeexception: Unable to instantiate org.apache.hadoop.hive.ql.meta data.sessionhivemetastoreclient at org.apache.hadoop.hive.metastore.metastoreutils.newinstance(metastoreutils.java:1523) at org.apache.hadoop.hive.metastore.retryingmetastoreclient.<init>(retryingmetastoreclient.java:86) at org.apache.hadoop.hive.metastore.retryingmetastoreclient.getproxy(retryingmetastorecli ent.java:132) at org.apache.hadoop.hive.metastore.retryingmetastoreclient.getproxy(retryingmetastorecli ent.java:104) at org.apache.hadoop.hive.ql.metadata.hive.createmetastoreclient(hive.java:3005) at org.apache.hadoop.hive.ql.metadata.hive.getmsc(hive.java:3024) at org.apache.hadoop.hive.ql.metadata.hive.getalldatabases(hive.java:1234)... 59 more Caused by: java.lang.reflect.invocationtargetexception at sun.reflect.nativeconstructoraccessorimpl.newinstance0(native Method) at sun.reflect.nativeconstructoraccessorimpl.newinstance(nativeconstructoraccessorimpl.ja va:57) at sun.reflect.delegatingconstructoraccessorimpl.newinstance(delegatingconstructoraccesso rimpl.java:45) at java.lang.reflect.constructor.newinstance(constructor.java:526) at org.apache.hadoop.hive.metastore.metastoreutils.newinstance(metastoreutils.java:1521)... 65 more Caused by: MetaException(message:Version information not found in metastore. ) at org.apache.hadoop.hive.metastore.objectstore.checkschema(objectstore.java:6664) at org.apache.hadoop.hive.metastore.objectstore.verifyschema(objectstore.java:6645) 4 / 8

at org.apache.hadoop.hive.metastore.rawstoreproxy.invoke(rawstoreproxy.java:114) at com.sun.proxy.$proxy15.verifyschema(unknown Source) at org.apache.hadoop.hive.metastore.hivemetastore$hmshandler.getms(hivemetastore.java :572) at org.apache.hadoop.hive.metastore.hivemetastore$hmshandler.createdefaultdb(hivemeta Store.java:620) at org.apache.hadoop.hive.metastore.hivemetastore$hmshandler.init(hivemetastore.java:46 1) at org.apache.hadoop.hive.metastore.retryinghmshandler.<init>(retryinghmshandler.java:6 6) at org.apache.hadoop.hive.metastore.retryinghmshandler.getproxy(retryinghmshandler.jav a:72) at org.apache.hadoop.hive.metastore.hivemetastore.newretryinghmshandler(hivemetastore.java:5762) at org.apache.hadoop.hive.metastore.hivemetastoreclient.<init>(hivemetastoreclient.java:19 9) at org.apache.hadoop.hive.ql.metadata.sessionhivemetastoreclient.<init>(sessionhivemetast oreclient.java:74)... 70 more 15/11/20 16:20:07 INFO metastore.hivemetastore: 0: Opening raw store with implemenation c lass:org.apache.hadoop.hive.metastore.objectstore 15/11/20 16:20:07 INFO metastore.objectstore: ObjectStore, initialize called 15/11/20 16:20:07 INFO metastore.metastoredirectsql: Using direct SQL, underlying DB is DER BY 15/11/20 16:20:07 INFO metastore.objectstore: Initialized ObjectStore java.lang.runtimeexception: java.lang.runtimeexception: Unable to instantiate org.apache.ha doop.hive.ql.metadata.sessionhivemetastoreclient at org.apache.hadoop.hive.ql.session.sessionstate.start(sessionstate.java:522) at org.apache.spark.sql.hive.client.clientwrapper.<init>(clientwrapper.scala:171) at org.apache.spark.sql.hive.hivecontext.executionhive$lzycompute(hivecontext.scala:162) at org.apache.spark.sql.hive.hivecontext.executionhive(hivecontext.scala:160) at org.apache.spark.sql.hive.hivecontext.<init>(hivecontext.scala:167) at sun.reflect.nativeconstructoraccessorimpl.newinstance0(native Method) at sun.reflect.nativeconstructoraccessorimpl.newinstance(nativeconstructoraccessorimpl.ja va:57) at sun.reflect.delegatingconstructoraccessorimpl.newinstance(delegatingconstructoraccesso rimpl.java:45) at java.lang.reflect.constructor.newinstance(constructor.java:526) at org.apache.spark.repl.sparkiloop.createsqlcontext(sparkiloop.scala:1028) at $iwc$$iwc.<init>(<console>:9) at $iwc.<init>(<console>:18) at <init>(<console>:20) at.<init>(<console>:24) at.<clinit>(<console>) at.<init>(<console>:7) at.<clinit>(<console>) 5 / 8

at $print(<console>) at org.apache.spark.repl.sparkimain$readevalprint.call(sparkimain.scala:1065) at org.apache.spark.repl.sparkimain$request.loadandrun(sparkimain.scala:1340) at org.apache.spark.repl.sparkimain.loadandrunreq$1(sparkimain.scala:840) at org.apache.spark.repl.sparkimain.interpret(sparkimain.scala:871) at org.apache.spark.repl.sparkimain.interpret(sparkimain.scala:819) at org.apache.spark.repl.sparkiloop.reallyinterpret$1(sparkiloop.scala:857) at org.apache.spark.repl.sparkiloop.interpretstartingwith(sparkiloop.scala:902) at org.apache.spark.repl.sparkiloop.command(sparkiloop.scala:814) at org.apache.spark.repl.sparkiloopinit$$anonfun$initializespark$1.apply(sparkiloopinit.sca la:132) at org.apache.spark.repl.sparkiloopinit$$anonfun$initializespark$1.apply(sparkiloopinit.sca la:124) at org.apache.spark.repl.sparkimain.bequietduring(sparkimain.scala:324) at org.apache.spark.repl.sparkiloopinit$class.initializespark(sparkiloopinit.scala:124) at org.apache.spark.repl.sparkiloop.initializespark(sparkiloop.scala:64) s$1$$anonfun$apply$mcz$sp$5.apply$mcv$sp(sparkiloop.scala:974) at org.apache.spark.repl.sparkiloopinit$class.runthunks(sparkiloopinit.scala:159) at org.apache.spark.repl.sparkiloop.runthunks(sparkiloop.scala:64) at org.apache.spark.repl.sparkiloopinit$class.postinitialization(sparkiloopinit.scala:108) at org.apache.spark.repl.sparkiloop.postinitialization(sparkiloop.scala:64) s$1.apply$mcz$sp(sparkiloop.scala:991) s$1.apply(sparkiloop.scala:945) s$1.apply(sparkiloop.scala:945) at scala.tools.nsc.util.scalaclassloader$.savingcontextloader(scalaclassloader.scala:135) at org.apache.spark.repl.sparkiloop.org$apache$spark$repl$sparkiloop$$process(sparkiloo p.scala:945) at org.apache.spark.repl.sparkiloop.process(sparkiloop.scala:1059) at org.apache.spark.repl.main$.main(main.scala:31) at org.apache.spark.repl.main.main(main.scala) at org.apache.spark.deploy.sparksubmit$.org$apache$spark$deploy$sparksubmit$$runmain (SparkSubmit.scala:674) at org.apache.spark.deploy.sparksubmit$.dorunmain$1(sparksubmit.scala:180) at org.apache.spark.deploy.sparksubmit$.submit(sparksubmit.scala:205) 6 / 8

at org.apache.spark.deploy.sparksubmit$.main(sparksubmit.scala:120) at org.apache.spark.deploy.sparksubmit.main(sparksubmit.scala) Caused by: java.lang.runtimeexception: Unable to instantiate org.apache.hadoop.hive.ql.meta data.sessionhivemetastoreclient at org.apache.hadoop.hive.metastore.metastoreutils.newinstance(metastoreutils.java:1523) at org.apache.hadoop.hive.metastore.retryingmetastoreclient.<init>(retryingmetastoreclient.java:86) at org.apache.hadoop.hive.metastore.retryingmetastoreclient.getproxy(retryingmetastorecli ent.java:132) at org.apache.hadoop.hive.metastore.retryingmetastoreclient.getproxy(retryingmetastorecli ent.java:104) at org.apache.hadoop.hive.ql.metadata.hive.createmetastoreclient(hive.java:3005) at org.apache.hadoop.hive.ql.metadata.hive.getmsc(hive.java:3024) at org.apache.hadoop.hive.ql.session.sessionstate.start(sessionstate.java:503)... 56 more Caused by: java.lang.reflect.invocationtargetexception at sun.reflect.nativeconstructoraccessorimpl.newinstance0(native Method) at sun.reflect.nativeconstructoraccessorimpl.newinstance(nativeconstructoraccessorimpl.ja va:57) at sun.reflect.delegatingconstructoraccessorimpl.newinstance(delegatingconstructoraccesso rimpl.java:45) at java.lang.reflect.constructor.newinstance(constructor.java:526) at org.apache.hadoop.hive.metastore.metastoreutils.newinstance(metastoreutils.java:1521)... 62 more Caused by: MetaException(message:Version information not found in metastore. ) at org.apache.hadoop.hive.metastore.objectstore.checkschema(objectstore.java:6664) at org.apache.hadoop.hive.metastore.objectstore.verifyschema(objectstore.java:6645) at org.apache.hadoop.hive.metastore.rawstoreproxy.invoke(rawstoreproxy.java:114) at com.sun.proxy.$proxy15.verifyschema(unknown Source) at org.apache.hadoop.hive.metastore.hivemetastore$hmshandler.getms(hivemetastore.java :572) at org.apache.hadoop.hive.metastore.hivemetastore$hmshandler.createdefaultdb(hivemeta Store.java:620) at org.apache.hadoop.hive.metastore.hivemetastore$hmshandler.init(hivemetastore.java:46 1) at org.apache.hadoop.hive.metastore.retryinghmshandler.<init>(retryinghmshandler.java:6 6) at org.apache.hadoop.hive.metastore.retryinghmshandler.getproxy(retryinghmshandler.jav a:72) at org.apache.hadoop.hive.metastore.hivemetastore.newretryinghmshandler(hivemetastore.java:5762) at org.apache.hadoop.hive.metastore.hivemetastoreclient.<init>(hivemetastoreclient.java:19 7 / 8

Powered by TCPDF (www.tcpdf.org) 使用 Spark SQL 读取 Hive 上的数据 9) at org.apache.hadoop.hive.ql.metadata.sessionhivemetastoreclient.<init>(sessionhivemetast oreclient.java:74)... 67 more 看下你的 Hadoop 集群是否可以连接 Mysql 元数据 本博客文章除特别声明, 全部都是原创! 转载本文请加上 : 转载自过往记忆 (https://www.iteblog.com/) 本文链接 : () 8 / 8