使用Apache Spark将数据写入ElasticSearch
|
|
|
- 初讼 侯
- 7 years ago
- Views:
Transcription
1 使用 Apache Spark 将数据写入 ElasticSearch ElasticSearch 是一个基于 Lucene 的搜索服务器 它提供了一个分布式多用户能力的全文搜索引擎, 基于 RESTful web 接口 Elasticsearch 是用 Java 开发的, 并作为 Apache 许可条款下的开放源码发布, 是当前流行的企业级搜索引擎 设计用于云计算中, 能够达到实时搜索, 稳定, 可靠, 快速, 安装使用方便 本文并不打算介绍 ElasticSearch 的概念, 安装部署等知识, 而是直接介绍如何使用 Apache S park 将数据写入到 ElasticSearch 中 本文使用的是类库是 elasticsearchhadoop, 其从 2.1 版本开始提供了内置支持 Apache Spark 的功能, 在使用 elasticsearchhadoop 之前, 我们需要引入依赖 : <dependency> <groupid>org.elasticsearch</groupid> <artifactid>elasticsearch-hadoop</artifactid> <version>2.3.4</version> </dependency> 为了方便, 本文直接在 spark-shell 中操作 ElasticSearch 在此之前, 我们需要在 $SPARK_HO ME/conf/spark-default.conf 文件中加入以下配置 : spark.es.nodes spark.es.port 9200 其中 spark.es.nodes 指定你 es 集群的机器列表, 但是不需要把你集群所有的节点都列在里面 ;spa rk.es.port 表示集群 HTTP 端口 之所以要加上 spark 前缀是因为 Spark 通过从文件里面或者命令行里面读取配置参数只会加载 spark 开头的, 其他的参数将会被忽略 之后 elasticsearchhadoop 会把 spark 前缀去掉 如果你直接将代码写入文件, 那么你可以在初始化 SparkContext 之前设置好 ElasticSearch 相关的参数, 如下 : import org.apache.spark.sparkconf val conf = new SparkConf().setAppName("iteblog").setMaster(master) conf.set("es.nodes", " conf.set("es.port", "9200") 1 / 8
2 conf.set("es.index.auto.create", "true") 在写入数据之前, 先导入 org.elasticsearch.spark._ 包, 这将使得所有的 RDD 拥有 savetoes 方法 下面我将一一介绍将不同类型的数据写入 ElasticSearch 中 将 Map 对象写入 ElasticSearch scala> import org.elasticsearch.spark._ import org.elasticsearch.spark._ scala> val numbers = Map("one" -> 1, "two" -> 2, "three" -> 3) numbers: scala.collection.immutable.map[string,int] = Map(one -> 1, two -> 2, three -> 3) scala> val airports = Map("OTP" -> "Otopeni", "SFO" -> "San Fran") airports: scala.collection.immutable.map[string,string] = Map(OTP -> Otopeni, SFO -> San Fran ) scala> sc.makerdd(seq(numbers, airports)).savetoes("iteblog/docs") 上面构建了两个 Map 对象, 然后将它们写入到 ElasticSearch 中 ; 其中 savetoes 里面参数的 iteblog 表示索引 (indexes), 而 docs 表示 type 然后我们可以通过下面 URL 查看 iteblog 这个 index 的属性 : curl -XGET "iteblog": "aliases":, "mappings": "docs": "properties": "SFO": "type": "string", "arrival": "type": "string", "one": "type": "long", 2 / 8
3 "three": "type": "long", "two": "type": "long", "settings": "index": "creation_date": " ", "uuid": "HNIcGZ69Tf6qX3XVccwKUg", "number_of_replicas": "1", "number_of_shards": "5", "version": "created": " ", "warmers": 同时使用下面 URL 搜索出所有的 documents: "took": 2, "timed_out": false, "_shards": "total": 5, "successful": 5, "failed": 0, "hits": "total": 2, "max_score": 1, "hits": [ "_index": "iteblog", "_type": "docs", 3 / 8
4 ], "_id": "AVZy3d5sJfxPRwCjtWM9", "_score": 1, "_source": "one": 1, "two": 2, "three": 3 "_index": "iteblog", "_type": "docs", "_id": "AVZy3d5sJfxPRwCjtWM-", "_score": 1, "_source": "arrival": "Otopeni", "SFO": "San Fran" 将 case class 对象写入 ElasticSearch 我们还可以将 Scala 中的 case class 对象写入到 ElasticSearch;Java 中可以写入 JavaBean 对象, 如下 : scala> case class Trip(departure: String, arrival: String) defined class Trip scala> val upcomingtrip = Trip("OTP", "SFO") upcomingtrip: Trip = Trip(OTP,SFO) scala> val lastweektrip = Trip("MUC", "OTP") lastweektrip: Trip = Trip(MUC,OTP) scala> val rdd = sc.makerdd(seq(upcomingtrip, lastweektrip)) rdd: org.apache.spark.rdd.rdd[trip] = ParallelCollectionRDD[1] at makerdd at <console>:37 scala> rdd.savetoes("iteblog/class") 4 / 8
5 上面的代码片段将 upcomingtrip 和 lastweektrip 写入到名为 iteblog 的 _index 中,type 是 class 上面都是通过隐式转换才使得 rdd 拥有 savetoes 方法 elasticsearchhadoop 还提供显式方法来把 RDD 写入到 ElasticSearch 中, 如下 : scala> import org.elasticsearch.spark.rdd.esspark import org.elasticsearch.spark.rdd.esspark scala> val rdd = sc.makerdd(seq(upcomingtrip, lastweektrip)) rdd: org.apache.spark.rdd.rdd[trip] = ParallelCollectionRDD[0] at makerdd at <console>:34 scala> EsSpark.saveToEs(rdd, "spark/docs") 将 Json 字符串写入 ElasticSearch 我们可以直接将 Json 字符串写入到 ElasticSearch 中, 如下 : scala> val json1 = """"id" : 1, "blog" : " "weixin" : "iteblog_hadoop"""" json1: String = "id" : 1, "blog" : " "weixin" : "iteblog_hadoop" scala> val json2 = """"id" : 2, "blog" : "books.iteblog.com", "weixin" : "iteblog_hadoop"""" json2: String = "id" : 2, "blog" : "books.iteblog.com", "weixin" : "iteblog_hadoop" scala> sc.makerdd(seq(json1, json2)).savejsontoes("iteblog/json") 动态设置插入的 type 上面的示例都是将写入的 type 写死 有很多场景下同一个 Job 中有很多类型的数据, 我们希望一次就可以将不同的数据写入到不同的 type 中, 比如属于 book 的信息全部写入到 type 为 book 里面 ; 而属于 cd 的信息全部写入到 type 为 cd 里面 很高兴的是 elasticsearchhadoop 为我们提供了这个功能, 如下 : scala> val game = Map("media_type"->"game","title" -> "FF VI","year" -> "1994") game: scala.collection.immutable.map[string,string] = Map(media_type -> game, title -> FF VI, year -> 1994) scala> val book = Map("media_type" -> "book","title" -> "Harry Potter","year" -> "2010") book: scala.collection.immutable.map[string,string] = Map(media_type -> book, title -> Harry P otter, year -> 2010) scala> val cd = Map("media_type" -> "music","title" -> "Surfing With The Alien") 5 / 8
6 cd: scala.collection.immutable.map[string,string] = Map(media_type -> music, title -> Surfing W ith The Alien) scala> sc.makerdd(seq(game, book, cd)).savetoes("iteblog/media_type") type 是通过 media_type 通配符设置的, 这个在写入的时候可以获取到, 然后将不同类型的数据写入到不同的 type 中 自定义 id 在 ElasticSearch 中,_index/_type/_id 的组合可以唯一确定一个 Document 如果我们不指定 id 的话,ElasticSearch 将会自动为我们生产全局唯一的 id, 自动生成的 ID 有 20 个字符长如下 : "_index": "iteblog", "_type": "docs", "_id": "AVZy3d5sJfxPRwCjtWM-", "_score": 1, "_source": "arrival": "Otopeni", "SFO": "San Fran" 很显然, 这么长的字符串没啥意义, 而且也不便于我们记忆使用 不过我们可以在插入数据的时候手动指定 id 的值, 如下 : scala> val otp = Map("iata" -> "OTP", "name" -> "Otopeni") otp: scala.collection.immutable.map[string,string] = Map(iata -> OTP, name -> Otopeni) scala> val muc = Map("iata" -> "MUC", "name" -> "Munich") muc: scala.collection.immutable.map[string,string] = Map(iata -> MUC, name -> Munich) scala> val sfo = Map("iata" -> "SFO", "name" -> "San Fran") sfo: scala.collection.immutable.map[string,string] = Map(iata -> SFO, name -> San Fran) scala> val airportsrdd = sc.makerdd(seq((1, otp), (2, muc), (3, sfo))) scala> airportsrdd.savetoeswithmeta("iteblog/2015") 6 / 8
7 上面的 Seq((1, otp), (2, muc), (3, sfo)) 语句指定为各个对象指定了 id 值, 分别为 然后你可以通过 /iteblog/2015/1 URL 搜索到 otp 对象的值 我们还可以如下方式指定 id: scala> val json1 = """"id" : 1, "blog" : " "weixin" : "iteblog_hadoop"""" json1: String = "id" : 1, "blog" : " "weixin" : "iteblog_hadoop" scala> val json2 = """"id" : 2, "blog" : "books.iteblog.com", "weixin" : "iteblog_hadoop"""" json2: String = "id" : 2, "blog" : "books.iteblog.com", "weixin" : "iteblog_hadoop" scala> val rdd = sc.makerdd(seq(json1, json2)) scala> EsSpark.saveToEs(rdd, "iteblog/docs", Map("es.mapping.id" -> "id")) 上面通过 es.mapping.id 参数将对象中的 id 字段映射为每条记录的 id 自定义记录的元数据 我们甚至可以在写入数据的时候自定义记录的元数据, 如下 : scala> import org.elasticsearch.spark.rdd.metadata._ import org.elasticsearch.spark.rdd.metadata._ scala> val otp = Map("iata" -> "OTP", "name" -> "Otopeni") otp: scala.collection.immutable.map[string,string] = Map(iata -> OTP, name -> Otopeni) scala> val muc = Map("iata" -> "MUC", "name" -> "Munich") muc: scala.collection.immutable.map[string,string] = Map(iata -> MUC, name -> Munich) scala> val sfo = Map("iata" -> "SFO", "name" -> "San Fran") sfo: scala.collection.immutable.map[string,string] = Map(iata -> SFO, name -> San Fran) scala> val otpmeta = Map(ID -> 1, TTL -> "3h") scala> val mucmeta = Map(ID -> 2, VERSION -> "23") scala> val sfometa = Map(ID -> 3) 7 / 8
8 Powered by TCPDF ( 使用 Apache Spark 将数据写入 ElasticSearch scala> val airportsrdd = sc.makerdd(seq((otpmeta, otp), (mucmeta, muc), (sfometa, sfo))) scala> airportsrdd.savetoeswithmeta("iteblog/2015") 上面代码片段分别为 otp muc 和 sfo 设置了不同的元数据, 这在很多场景下是非常有用的 好了不早了, 该洗洗睡, 后面我将介绍如何使用 Apache Spark 读取 ElasticSearch 中的数据 本博客文章除特别声明, 全部都是原创! 禁止个人和公司转载本文 谢谢理解 : 过往记忆 ( 本文链接 : () 8 / 8
通过Hive将数据写入到ElasticSearch
我在 使用 Hive 读取 ElasticSearch 中的数据 文章中介绍了如何使用 Hive 读取 ElasticSearch 中的数据, 本文将接着上文继续介绍如何使用 Hive 将数据写入到 ElasticSearch 中 在使用前同样需要加入 elasticsearch-hadoop-2.3.4.jar 依赖, 具体请参见前文介绍 我们先在 Hive 里面建个名为 iteblog 的表,
使用MapReduce读取XML文件
使用 MapReduce 读取 XML 文件 XML( 可扩展标记语言, 英语 :extensible Markup Language, 简称 : XML) 是一种标记语言, 也是行业标准数据交换交换格式, 它很适合在系统之间进行数据存储和交换 ( 话说 Hadoop H ive 等的配置文件就是 XML 格式的 ) 本文将介绍如何使用 MapReduce 来读取 XML 文件 但是 Had oop
在Spring中使用Kafka:Producer篇
在某些情况下, 我们可能会在 Spring 中将一些 WEB 上的信息发送到 Kafka 中, 这时候我们就需要在 Spring 中编写 Producer 相关的代码了 ; 不过高兴的是,Spring 本身提供了操作 Kafka 的相关类库, 我们可以直接通过 xml 文件配置然后直接在后端的代码中使用 Kafka, 非常地方便 本文将介绍如果在 Spring 中将消息发送到 Kafka 在这之前,
Guava学习之Resources
Resources 提供提供操作 classpath 路径下所有资源的方法 除非另有说明, 否则类中所有方法的参数都不能为 null 虽然有些方法的参数是 URL 类型的, 但是这些方法实现通常不是以 HTTP 完成的 ; 同时这些资源也非 classpath 路径下的 下面两个函数都是根据资源的名称得到其绝对路径, 从函数里面可以看出,Resources 类中的 getresource 函数都是基于
Hive:用Java代码通过JDBC连接Hiveserver
Hive: 用 Java 代码通过 JDBC 连接 Hiveserver 我们可以通过 CLI Client Web UI 等 Hive 提供的用户接口来和 Hive 通信, 但这三种方式最常用的是 CLI;Client 是 Hive 的客户端, 用户连接至 Hive Server 在启动 Client 模式的时候, 需要指出 Hive Server 所在节点, 并且在该节点启动 Hive Server
Flume-ng与Mysql整合开发
Flume-ng 与 Mysql 整合开发 我们知道,Flume 可以和许多的系统进行整合, 包括了 Hadoop Spark Kafka Hbase 等等 ; 当然, 强悍的 Flume 也是可以和 Mysql 进行整合, 将分析好的日志存储到 Mysql( 当然, 你也可以存放到 pg oracle 等等关系型数据库 ) 不过我这里想多说一些 :Flume 是分布式收集日志的系统 ; 既然都分布式了,
三种方法实现Hadoop(MapReduce)全局排序(1)
三种方法实现 Hadoop(MapReduce) 全局排序 () 三种方法实现 Hadoop(MapReduce) 全局排序 () 我们可能会有些需求要求 MapReduce 的输出全局有序, 这里说的有序是指 Key 全局有序 但是我们知道,MapReduce 默认只是保证同一个分区内的 Key 是有序的, 但是不保证全局有序 基于此, 本文提供三种方法来对 MapReduce 的输出进行全局排序
PowerPoint 演示文稿
Apache Spark 与 多 数 据 源 的 结 合 田 毅 @ 目 录 为 什 么 会 用 到 多 个 数 据 源 Spark 的 多 数 据 源 方 案 有 哪 些 已 有 的 数 据 源 支 持 Spark 在 GrowingIO 的 实 践 分 享 为 什 么 会 用 到 多 个 数 据 源 从 数 据 本 身 来 看 大 数 据 的 特 性 之 一 :Variety 数 据 的 多 样
Hadoop元数据合并异常及解决方法
Hadoop 元数据合并异常及解决方法 这几天观察了一下 Standby NN 上面的日志, 发现每次 Fsimage 合并完之后,Standby NN 通知 Active NN 来下载合并好的 Fsimage 的过程中会出现以下的异常信息 : 2014-04-23 14:42:54,964 ERROR org.apache.hadoop.hdfs.server.namenode.ha. StandbyCheckpointer:
帝国CMS下在PHP文件中调用数据库类执行SQL语句实例
帝国 CMS 下在 PHP 文件中调用数据库类执行 SQL 语句实例 这篇文章主要介绍了帝国 CMS 下在 PHP 文件中调用数据库类执行 SQL 语句实例, 本文还详细介绍了帝国 CMS 数据库类中的一些常用方法, 需要的朋友可以参考下 例 1: 连接 MYSQL 数据库例子 (a.php)
SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基
开放数据处理服务 ODPS SDK SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基础功能的主体接口, 搜索关键词 "odpssdk-core" 一些
第 06 期 李祥池 : 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 1 日志 1.1 日志定义 IT 1.2 日志处理方案演进 v1.0 v2.0 Hadoop Storm Spark Hadoop/Storm/Spark v3.0 TB Splunk ELK SI
电子科学技术第 02 卷第 06 期 2015 年 11 月 Electronic Science & Technology Vol.02 No.06 Nov.2015 年 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 李祥池 ( 杭州华三通信技术有限公司北京研究所, 北京,100085) 摘要 : 在大数据时代 对数据平台各组件的运行状态实时监控与运行分析具有重要意义
Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7.
Kubernetes 包管理理 工具 Helm 蔺礼强 Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes
团 学 要 闻 我 校 召 开 共 青 团 五 届 九 次 全 委 ( 扩 大 ) 会 议 3 月 17 日, 我 校 共 青 团 五 届 九 次 全 委 ( 扩 大 ) 会 议 在 行 政 办 公 楼 五 楼 会 议 室 举 行, 校 团 委 委 员 各 院 ( 系 ) 团 委 书 记 校 学 生
共 青 团 工 作 简 报 2011 年 第 1 期 共 青 团 大 连 海 洋 大 学 委 员 会 团 学 要 闻 : 导 读 我 校 召 开 共 青 团 五 届 九 次 全 委 ( 扩 大 ) 会 议 我 校 在 大 连 市 大 学 生 创 新 创 意 作 品 大 赛 中 取 得 佳 绩 校 团 委 召 开 学 生 干 部 思 想 动 态 座 谈 会 校 团 委 组 织 开 展 弘 扬 雷 锋
江门:中国第一侨乡
开平碉楼 赤坎古镇 油菜花 梁启超故居 小鸟天堂 川岛 富康温 泉 帝都温泉 中国第一侨乡 封面... 1 一... 4 二 江门必玩景点... 6 1 碉楼游... 6 2 海岛游... 7 3 温泉游... 9 4 人文游... 11 5 生态游... 13 三 江门行程推荐... 四 江门娱乐... 五 江门美食... 六 江门购物... 七 江门住宿... 八 江门交通... 1 飞机...
是 喔, 就 是 那 個 在 BBS 醫 療 版 跟 你 嗆 聲, 自 稱 有 三 十 多 年 推 拿 經 驗 的 大 叔 嗎? 一 個 看 來 頗 為 清 秀 的 女 生 問 道, 她 語 氣 中 略 感 訝 異 是 啊, 什 麼 推 拿 按 摩 有 多 好, 還 要 人 生 病 盡 量 不 要
[tw] 天 醫 傳 奇 回 憶 篇 [/tw][cn] 天 医 传 奇 回 忆 篇 [/cn] 少 年 的 時 光 是 容 易 凋 謝 的 玫 瑰, 又 像 是 不 停 等 的 河 流, 總 會 在 某 一 個 渡 口 駐 岸 時, 才 發 現, 滾 滾 河 水 夾 帶 著 輕 舟, 在 不 經 意 間, 已 經 漂 流 過 萬 重 山 A.D.1999.12.31 傍 晚 新 竹 綠 莎 庭 園
目 录 1 足 阳 明 胃 经... 3 2 足 太 阴 脾 经... 4 3 手 少 阴 心 经... 5 4 手 太 阳 小 肠 经... 6 5 足 太 阳 膀 胱 经 :... 7 6 足 少 阴 肾 经... 8 7 手 厥 阴 心 包 经... 9 8 手 少 阳 三 焦 经... 10
1 中 里 巴 人 口 述 各 条 经 络 穴 位 的 位 置 和 作 用 简 介 目 录 1 足 阳 明 胃 经... 3 2 足 太 阴 脾 经... 4 3 手 少 阴 心 经... 5 4 手 太 阳 小 肠 经... 6 5 足 太 阳 膀 胱 经 :... 7 6 足 少 阴 肾 经... 8 7 手 厥 阴 心 包 经... 9 8 手 少 阳 三 焦 经... 10 9 足 少 阳
1 1 10 1 2008 9 5 2008 9 5 2010 6 25 1 10 111 12 18 4 1 1 1. 2008 9 2. 2010 6 1. 2008 9 2. 2010 6 1. 11 2. 2009 7 3. 1. 2. 1. 2. 3. 1. 1 2 3 2. 1 2 SPA 3 3. 1 2 4. 1 2 1. 2. 3. 1. 2. 1 2 1 2 3 4 5 1. 1
Fun Time (1) What happens in memory? 1 i n t i ; 2 s h o r t j ; 3 double k ; 4 char c = a ; 5 i = 3; j = 2; 6 k = i j ; H.-T. Lin (NTU CSIE) Referenc
References (Section 5.2) Hsuan-Tien Lin Deptartment of CSIE, NTU OOP Class, March 15-16, 2010 H.-T. Lin (NTU CSIE) References OOP 03/15-16/2010 0 / 22 Fun Time (1) What happens in memory? 1 i n t i ; 2
電機工程系認可證照清單 2011/7/1
南 台 科 技 大 學 電 機 工 程 系 專 業 證 照 課 程 實 施 要 點 96 年 10 月 05 日 系 務 會 議 通 過 100 年 06 月 30 日 系 務 會 議 修 正 通 過 101 年 06 月 21 日 系 務 會 議 修 正 通 過 一 本 系 為 提 升 學 生 的 專 業 技 能, 特 訂 定 本 辦 法 二 實 施 對 象 : 本 系 日 間 部 96 學 年
菩提道次第廣論
菩 提 道 次 第 广 论 下 士 道 ( 二 ) 深 信 业 果 18 ( 分 别 业 的 轻 重 3 ) 最 尊 贵 的 净 莲 上 师 讲 解 我 们 继 续 说 明 为 什 么 业 特 别 重 大 的 原 因 第 二 个, 是 它 所 依 门, 所 依 门 的 缘 故, 依 它 所 依 的 内 容 而 有 轻 重 的 差 别 第 一 个, 它 所 依 的 是 什 么 呢? 就 是 你 是 不
繁 華 國 小 101 學 年 母 親 節 感 恩 惜 福 - 跳 蚤 市 場 暨 科 學 闖 關 遊 戲 親 子 活 動 實 施 計 畫 一 依 據 : 本 校 101 學 年 度 校 務 計 畫 及 行 事 曆 二 目 的 : 1. 培 養 學 生 感 恩 惜 物 知 福 惜 福 的 節 儉 觀
屏 東 縣 繁 華 國 小 慶 祝 101 學 年 度 母 親 節 活 動 實 施 計 劃 壹 依 據. 一. 本 校 101 年 度 推 廣 教 育 優 先 區 親 職 教 育 及 社 區 化 教 育 辦 理 二. 本 校 101 學 年 度 第 二 學 期 行 事 曆 計 劃 辦 理 貳 目 的. 一. 建 立 正 確 的 現 代 父 母 角 色, 發 揮 親 職 教 育 之 功 能 二. 增
台 中 市 北 屯 區 東 山 里 橫 坑 9 林 志 明 0932-511633 巷 89-5 菜 豆 菜 大 漿 果 菜 豆 菜 大 漿 果 小 漿 果 核 果 柑 桔 9210065 103.2.21 107..19 210065 無 107.2.12 10 陳 錦 生 新 竹 市 香 山 區
序 農 產 品 經 營 業 者 名 稱 1 劉 士 魁 2 林 東 詳 3 林 俊 堯 廖 本 源 5 林 碧 龍 10 年 驗 戶 名 冊 ( 生 產 加 工 分 裝 流 通 ) 地 址 彰 化 縣 永 靖 鄉 崙 子 村 九 分 路 192 巷 21 屏 東 縣 屏 東 市 空 翔 里 2 鄰 迪 化 一 街 67 台 中 市 太 平 區 育 誠 街 12 巷 1 屏 東 縣 屏 東 市 華 盛
45 45 67 1935 10 7 1937 4 6 1943 1945 4 1952 46 47 5 5 1 5 1979 1964 1949 1954 1966 1967 1 9 48 49 1960 70 12 16 1 2 3 4 5 6 1970 1964 1966 50 51 1993 2001 1990 1993 9 25 1950 6 5 7 96 811 12 8 10 1972
育儿小故事(四)
9998.00 (1CD, ) I...1...2...4...6...7...8...9... 11...12...14...15...16...21...23...38...44...44...50...52...70...74...79...84...89...97 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Microsoft Word - RAP 050120 CHI.doc
利 用 世 行 贷 款 柳 州 市 环 境 治 理 工 程 移 民 安 置 计 划 柳 州 市 城 市 投 资 建 设 发 展 有 限 公 司 柳 州 市 环 境 卫 生 管 理 处 二 00 五 年 一 月 二 十 日 0 目 录 第 一 章 项 目 简 述...6 1.1 水 环 境 综 合 治 理 项 目...8 1.2 城 市 公 厕 项 目...12 1.3 垃 圾 转 运 站 建 设 项
1 1 1 1 2 3 3 3 4 4 5 5 5 6 6 7 7 9 9 9 10 11 11 11 1. 2. 3. 4. 1 2 11 12 12 12 12 13 13 13 15 15 16 16 17 18 18 18 19 19 19 20 20 20 21 22 22 22 23 23 1. 2. 23 25 27 27 28 28 28 29 29 29 30 31 31 31 32
<4D6963726F736F667420576F7264202D20D6D0CEC4B7A88C57B454CABF8C57CEBBD593CEC4D28EB9A0>
澳 門 大 學 法 學 院 中 文 法 學 碩 士 學 位 論 文 規 範 一 適 用 範 圍 ( 一 ) 中 文 法 學 碩 士 學 位 論 文 是 中 文 法 學 碩 士 學 位 研 究 生 在 指 導 教 師 的 指 導 下 獨 立 完 成 的, 合 乎 嚴 格 的 寫 作 規 範 並 標 誌 著 獲 得 法 學 碩 士 學 位 的 一 篇 書 面 作 品 中 文 法 學 碩 士 研 究 生
Flink快速上手之Scala API使用
Flink 快速上手之 Scala API 使用 本文将介绍如何通过简单地几步来开始编写你的 Flink Scala 程序 构建工具 Flink 工程可以使用不同的工具进行构建, 为了快速构建 Flink 工程, Flink 为下面的构建工具分别提供了模板 : 1 SBT 2 Maven 这些模板可以帮助我们组织项目结构并初始化一些构建文件 SBT 创建工程 1 使用 Giter8 可以使用下面命令插件一个
Microsoft Word - 01.DOC
第 1 章 JavaScript 简 介 JavaScript 是 NetScape 公 司 为 Navigator 浏 览 器 开 发 的, 是 写 在 HTML 文 件 中 的 一 种 脚 本 语 言, 能 实 现 网 页 内 容 的 交 互 显 示 当 用 户 在 客 户 端 显 示 该 网 页 时, 浏 览 器 就 会 执 行 JavaScript 程 序, 用 户 通 过 交 互 式 的
jsp
JSP Allen Long Email: [email protected] http://www.huihoo.com 2004-04 Huihoo - Enterprise Open Source http://www.huihoo.com 1 JSP JSP JSP JSP MVC Huihoo - Enterprise Open Source http://www.huihoo.com 2
詞 彙 表 編 號 詞 彙 描 述 1 預 約 人 資 料 中 文 姓 名 英 文 姓 名 身 份 證 字 號 預 約 人 電 話 性 別 2 付 款 資 料 信 用 卡 別 信 用 卡 號 信 用 卡 有 效 日 期 3 住 房 條 件 入 住 日 期 退 房 日 期 人 數 房 間 數 量 入
100 年 特 種 考 試 地 方 政 府 公 務 人 員 考 試 試 題 等 別 : 三 等 考 試 類 科 : 資 訊 處 理 科 目 : 系 統 分 析 與 設 計 一 請 參 考 下 列 旅 館 管 理 系 統 的 使 用 案 例 圖 (Use Case Diagram) 撰 寫 預 約 房 間 的 使 用 案 例 規 格 書 (Use Case Specification), 繪 出 入
Apache Spark 2.4 新增内置函数和高阶函数使用介绍
Apache Spark 2.4 新增了 24 个内置函数和 5 个高阶函数, 本文将对这 29 个函数的使用进行介绍 关于 Apache Spark 2.4 的新特性, 可以参见 Apache Spark 2.4 正式发布, 重要功能详细介绍 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 针对数组类型的函数 array_distinct
2014年全国体操锦标赛
成 绩 册 2015 年 全 国 少 年 体 操 比 赛 河 南. 郑 州 主 办 单 位 : 国 家 体 育 总 局 体 操 运 动 管 理 中 心 承 办 单 位 : 河 南 省 体 育 局 协 办 单 位 : 河 南 省 体 操 运 动 管 理 中 心 河 南 省 体 操 运 动 协 会 赞 助 单 位 : 安 踏 体 育 用 品 有 限 公 司 2015-08-18 2015-08-26 体
1.JasperReport ireport JasperReport ireport JDK JDK JDK JDK ant ant...6
www.brainysoft.net 1.JasperReport ireport...4 1.1 JasperReport...4 1.2 ireport...4 2....4 2.1 JDK...4 2.1.1 JDK...4 2.1.2 JDK...5 2.1.3 JDK...5 2.2 ant...6 2.2.1 ant...6 2.2.2 ant...6 2.3 JasperReport...7
雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO
CHAPTER 使用 Hadoop 打造自己的雲 8 8.3 測試 Hadoop 雲端系統 4 Nodes Hadoop Map Reduce Hadoop WordCount 4 Nodes Hadoop Map/Reduce $HADOOP_HOME /home/ hadoop/hadoop-0.20.2 wordcount echo $ mkdir wordcount $ cd wordcount
Elasticsearch课件.key
Elasticsearch @jolestar 目录 Elasticsearch 简介 Elasticsearch 核心概念及架构 Elasticsearch 集群搭建与配置 Elasticsearch 集群演示 Elasticsearch 全文检索 Elasticsearch 文档数据库 Elasticsearch 分析引擎 ELK 使用场景演示 Elasticsearch 简介 Elasticsearch
(TestFailure) JUnit Framework AssertionFailedError JUnit Composite TestSuite Test TestSuite run() run() JUnit
Tomcat Web JUnit Cactus JUnit Java Cactus JUnit 26.1 JUnit Java JUnit JUnit Java JSP Servlet JUnit Java Erich Gamma Kent Beck xunit JUnit boolean JUnit Java JUnit Java JUnit Java 26.1.1 JUnit JUnit How
PDF 入不思議解脫境界普賢行願品 ... 《大方廣佛華嚴經卷第四十》
gustav / January 01, 2015 09:07PM T10n0293_p0844b14(00) T10n0293_p0844b15(00) T10n0293_p0844b16(00) 大 方 廣 佛 華 嚴 經 卷 第 四 十 T10n0293_p0844b17(00) T10n0293_p0844b18(00) 罽 賓 國 三 藏 般 若 奉 詔 譯 T10n0293_p0844b19(00)
}; "P2VTKNvTAnYNwBrqXbgxRSFQs6FTEhNJ", " " string imagedata; if(0!= read_image("a.jpg",imagedata)) { return -1; } string rsp; ytopen_sdk m_sd
tencentyun-youtu c++ sdk for 腾讯云智能优图服务 & 腾讯优图开放平台 安装 运行环境 Linux 依赖项 - curl-7.40.0, 获取更新版本 https://github.com/bagder/curl - openssl-1.0.1k, 获取更新版本 https://github.com/openssl/openssl 构建工程 工程采用 CMake 构建 1.
208 中 南 大 学 学 报 ( 社 会 科 学 版 ) 2013 年 第 19 卷 第 6 期 节 目 录 上 卷 一 所 载 篇 名, 乃 总 目 录 中 篇 名 之 误, 正 文 卷 一 收 录 篇 名 为 月 支 使 者 玄 觉 杜 凝 妻 灌 国 婴 女 独 狐 及 吕 卿 均 五 篇
第 19 卷 第 6 期 中 南 大 学 学 报 ( 社 会 科 学 版 ) Vol.19 No.6 2013 年 12 月 J. CENT. SOUTH UNIV. (SOCIAL SCIENCE) Dec. 2013 篇 目 考 辨 三 则 以 韩 藏 详 节 为 校 勘 依 据 盛 莉 ( 江 汉 大 学 人 文 学 院, 湖 北 武 汉,430056) 摘 要 : 详 节 为 朝 鲜 时 期
ebook
26 JBuilder RMI Java Remote Method Invocation R M I J a v a - - J a v a J a v J a v a J a v a J a v a R M I R M I ( m a r s h a l ) ( u n m a r c h a l ) C a ff e i n e J a v a j a v a 2 i i o p J a v
XXXXXXXX http://cdls.nstl.gov.cn 2 26
[ ] [ ] 2003-7-18 1 26 XXXXXXXX http://cdls.nstl.gov.cn 2 26 (2003-7-18) 1...5 1.1...5 1.2...5 1.3...5 2...6 2.1...6 2.2...6 2.3...6 3...7 3.1...7 3.1.1...7 3.1.2...7 3.1.2.1...7 3.1.2.1.1...8 3.1.2.1.2...10
目 錄 版 次 變 更 記 錄... 2 原 始 程 式 碼 類 型 之 使 用 手 冊... 3 一 安 裝 軟 體 套 件 事 前 準 備... 3 二 編 譯 流 程 說 明... 25 1
科 技 部 自 由 軟 體 專 案 原 始 程 式 碼 使 用 手 冊 Source Code Manual of NSC Open Source Project 可 信 賴 的 App 安 全 應 用 框 架 -App 應 用 服 務 可 移 轉 性 驗 證 Trusted App Framework -Transferability Verification on App MOST 102-2218-E-011-012
三种方法实现Hadoop(MapReduce)全局排序(2)
三种方法实现 Hadoop(MapReduce) 全局排序 (2) 我在前面的文章介绍了 MapReduce 中两种全排序的方法及其实现 但是上面的两种方法都是有很大的局限性 : 方法一在数据量很大的时候会出现 OOM 问题 ; 方法二虽然能够将数据分散到多个 Reduce 中, 但是问题也很明显 : 我们必须手动地找到各个 Reduce 的分界点, 尽量使得分散到每个 Reduce 的数据量均衡
