深入理解Hadoop Streaming

Size: px
Start display at page:

Download "深入理解Hadoop Streaming"

Transcription

1 Hadoop Streaming 是 Hadoop 提供的一个 MapReduce 编程工具, 它允许用户使用任何可执行文件 脚本语言或其他编程语言来实现 Mapper 和 Reducer 作业 比如下面的例子 -mapper /bin/cat \ -reducer /usr/bin/wc Hadoop Streaming 程序是如何工作的 Hadoop Streaming 使用了 Unix 的标准输入输出作为 Hadoop 和其他编程语言的开发接口, 因此在其他的编程语言所写的程序中, 只需要将标准输入作为程序的输入, 将标准输出作为程序的输出就可以了 在上面的示例中,mapper 和 reducer 都是能够从 stdin 逐行 (line by line) 读取输入的可执行文件, 然后把处理完的结果发送到 stdout 这个实用工具将会创建一个 Map / Reduce 作业, 并将作业提交到适当的集群, 监控作业的运行进度直到作业运行完成 如果一个文件 ( 可执行或者脚本 ) 作为 mapper,mapper 初始化时, 每一个 mapper 任务会把该文件作为一个单独进程启动,mapper 任务运行时, 它把输入切分成行并把每一行提供给可执行文件进程的标准输入 同时,mapper 收集可执行文件进程标准输出的内容, 并把收到的每一行内容转化成 key/value 对, 作为 mapper 的输出 默认情况下, 一行中第一个 tab 之前的部分作为 key, 之后的 ( 不包括 tab) 作为 value 如果没有 tab, 整行作为 key 值,value 值为 null reducer 的运行过程和这个类似, 就不介绍 以上是 Map/Reduce 框架和 streaming mapper/reducer 之间的基本通信协议 用户可以定义 stream.non.zero.exit.is.failure 参数为 true 或者 false 以定义一个以非 0 状态退出的 streaming 的任务是失败 (Failure) 还是成功 (Success) 默认情况下, 以非 0 状态退出的任务都任务是失败的 Streaming 命令行选项 (Streaming Command Options) Hadoop Streaming 除了支持流命令选项 (Streaming Command 1 / 12

2 Options) 外, 还支持 Hadoop 的通用命令选项 (generic command options), 通用命令选项这个会在本文的下面进行介绍 命令得使用规则如下 : mapred streaming [genericoptions] [streamingoptions] 需要注意的是, 在提交 Streaming 作业中使用到通用命令选项的时候, 需要把通用命令选项设置在流命令选项之前, 否则将会出现一些错误 目前的 Hadoop streaming (Hadoop 3.0.0) 支持的流命令选项如下 : 参数是否可选描述 -input directoryname or filename Required mapper 的输入路径 -output directoryname Required reducer 输出路径 -mapper executable or JavaClassName -reducer executable or JavaClassName Optional Optional Mapper 可执行程序或 Java 类名 Reducer 可执行程序或 Java 类名 -file filename Optional mapper, reducer 或 combiner 依赖的文件 -inputformat JavaClassName Optional key/value 输入格式, 默认为 TextInputFormat -outputformat JavaClassName Optional key/value 输出格式, 默认为 TextOutputformat -partitioner JavaClassName Optional Class that determines which reduce a key is sent to -combiner streamingcommand or JavaClassName Optional map 输出结果执行 Combiner 的命令或者类名 -cmdenv name=value Optional 环境变量 -inputreader Optional 向后兼容, 定义输入的 Reader 类, 用于取代输出格式 -verbose Optional 输出日志 2 / 12

3 -lazyoutput Optional 延时输出 -numreducetasks Optional 定义 reduce 数量 -mapdebug Optional map 任务运行失败时候, 执行 的脚本 -reducedebug Optional reduce 任务运行失败时候, 执 行的脚本 指定一个 Java 类作为 Mapper/Reducer 我们可以指定一个 Java 类作为 Mapper/Reducer, 使用如下 : -inputformat org.apache.hadoop.mapred.keyvaluetextinputformat \ -mapper org.apache.hadoop.mapred.lib.identitymapper \ -reducer /usr/bin/wc 提交作业的时候打包文件 正如上面介绍的, 我们可以指定任意的可执行文件作为 mapper 或者 Reduce 在提交 Hadoop Streaming 作业的时候, mapper 或者 Reduce 程序不需要事先部署在 Hadoop 集群的任意一台机器上, 我们仅仅需要在提交 Streaming 作业的时候指定 -file 参数, 这样 Hadoop 会自动将这些文件分发到集群 使用如下 : -mapper mypythonscript.py \ -reducer /usr/bin/wc \ -file mypythonscript.py 上面命令中 -file mypythonscript.py 会导致 Hadoop 将这个文件自动分发到集群 除了可以指定可执行文件之外, 我们还可以打包 mapper 或者 Reduce 程序会用到的文件 ( 包括目录, 配置文件等 ), 比如 : 3 / 12

4 -mapper mypythonscript.py \ -reducer /usr/bin/wc \ -file mypythonscript.py \ -file mydictionary.txt 为作业指定其他插件 与正常的 Map / Reduce 作业一样, 我们还可以为流式作业指定其他插件, 选项如下 : -inputformat JavaClassName -outputformat JavaClassName -partitioner JavaClassName -combiner streamingcommand or JavaClassName 我们为 -inputformat 指定的 class 文件必须返回 Text 类型的 key/value 键值对 如果你没有指定 input format 类, 默认使用的是 TextInputFormat 类 TextInputFormat 中 key 的返回类型是 Long Writable, 这个并不是输入数据的一部分, 所以 key 部分将会被忽略, 而仅仅返回 value 部分 为 -outputformat 指定的 class 文件接收的数据类型是 Text 类型的 key/value 键值对 如果我们没有指定 output format 类, 默认使用 TextOutputFormat 设置环境变量 我们可以在提交 Streaming 作业的时候设置环境变量, 使用如下 : -cmdenv EXAMPLE_DIR=/home/example/dictionaries/ 通用命令选项 (Generic Command Options) 在提交流作业的时候, 可支持的通用命令选项主要有以下几个 : 参数是否可选描述 -conf configuration_file Optional 定义应用的配置文件 4 / 12

5 -D property=value Optional 定义参数 -fs host:port or local Optional 定义 namenode 地址 -files Optional 定义需要拷贝到 Map/Reduce 集群的文件, 多个文件以逗号 分隔 -libjars Optional 定义需要引入到 classpath 的 jar 文件, 多个文件以逗号分隔 -archives Optional 定义需要解压到计算节点的压 缩文件, 多个文件以逗号分隔 通过 -D 选项指定配置变量 我们可以通过 -D <property>=<value> 的方式指定额外的配置变量 (configuration variables) 指定目录 为了改变默认的本地临时目录, 可以使用下面的命令 : -D dfs.data.dir=/tmp 增加额外的本地临时目录可以使用下面命令 : -D mapred.local.dir=/tmp/local -D mapred.system.dir=/tmp/system -D mapred.temp.dir=/tmp/temp 设置只有 Map 的作业 有时候我们仅仅想跑只有 Map 的 Hadoop 作业, 只需要将 mapreduce.job.reduces 设置为 0 即实现 这会导致 Map/Reduce 框架不会启动 Reduce 类型的 task map task 的输出就是作业的最终结果输出, 设置如下 : -D mapreduce.job.reduces=0 5 / 12

6 为了向后兼容,Hadoop Streaming 还支持 -reducer NONE 选项, 其含义等同于 -D mapreduce.job.reduces=0 设置 Reduce 的个数 下面例子中将程序的 reduce 个数设置为 2: -D mapreduce.job.reduces=2 \ -mapper /bin/cat \ -reducer /usr/bin/wc 自定义行行数据如何拆分成 Key/Value 键值对 本文开头介绍过, 当 Map/Reduce 框架从 stdout 读取行数据的时候, 它会把一行数据拆分成一个 k ey/value 键值对 默认情况下,tab 制表符分割的前一部分数据是作为 key 的 ; 后一部分数据作为 v alue 当然, 我们可以自定义行数据的分隔符 如下所示 : -D stream.map.output.field.separator=. \ -D stream.num.map.output.key.fields=4 \ -mapper /bin/cat \ -reducer /bin/cat 在上面例子中,stream.map.output.field.separator 指定. 为 key 和 value 的分隔符 使用大文件或归档文件 我们可以使用 -files 和 -archives 选项分别指定文件或者归档文件 (archives), 这些文件可以被 task s 使用 使用这个选项时, 需要我们把这些文件或者 archives 上传到 HDFS 这些文件在作业执行的时候会被缓存到所有的 jobs 中 Making Files Available to Tasks -files 选项会在当前 tasks 的工作目录 (current working directory) 下创建一个符号链接 (symlink), 这个链接指定的就是从 HDFS 拷贝文件的副本 下面例子中, 我们指定了 HDFS 上的 testfile.txt 文件 6 / 12

7 , 在使用 -files 选项之后, 其会在 Tasks 的当前工作目录下创建名为 testfile.txt 的符号链接 -files hdfs://host:fs_port/user/testfile.txt 当然, 我们也可以自己通过 # 设置符号链接的名字 : -files hdfs://host:fs_port/user/testfile.txt#testfile 如果需要指定多个文件, 使用如下 : -files hdfs://host:fs_port/user/testfile1.txt,hdfs://host:fs_port/user/testfile2.txt Making Archives Available to Tasks -archives 选项允许我们指定一些压缩好的文件 ( 比如 jar tgz), 这些压缩文件会被拷贝到 Tasks 的当前工作目录, 然后会被自动解压 在下面的例子中, 我们指定了 HDFS 上的 iteblog.jar 压缩文件,Hadoop 会自动为我们在 Tasks 的当前工作目录下创建一个名为 iteblog.jar 的符号链接 这个链接指定的是解压之后的文件夹名称 : -archives hdfs://host:fs_port/user/iteblog.jar 同样, 我们也可以自己设置符号链接的名字 : -archives hdfs://host:fs_port/user/iteblog.tgz#tgzdir 下面的例子中,input.txt 文件里面只有两行数据, 分别是两个文件的名字 : cachedir.jar/cache.txt 和 cachedir.jar/cache2.txt;cachedir.jar 是符号链接, 其目录下包含了两个文件 :cache.txt 和 cache2.txt 7 / 12

8 -archives 'hdfs://iteblog.com/user/me/samples/cachefile/cachedir.jar' \ -D mapreduce.job.maps=1 \ -D mapreduce.job.reduces=1 \ -D mapreduce.job.name="experiment" \ -input "/user/me/samples/cachefile/input.txt" \ -output "/user/me/samples/cachefile/out" \ -mapper "xargs cat" \ -reducer "cat" $ ls test_jar/ cache.txt cache2.txt $ jar cvf cachedir.jar -C test_jar/. added manifest adding: cache.txt(in = 30) (out= 29)(deflated 3%) adding: cache2.txt(in = 37) (out= 35)(deflated 5%) $ hdfs dfs -put cachedir.jar samples/cachefile $ hdfs dfs -cat /user/me/samples/cachefile/input.txt cachedir.jar/cache.txt cachedir.jar/cache2.txt $ cat test_jar/cache.txt This is just the cache string $ cat test_jar/cache2.txt This is just the second cache string $ hdfs dfs -ls /user/me/samples/cachefile/out Found 2 items -rw-r--r-* 1 me supergroup :00 /user/me/samples/cachefile/out/_success -rwr--r-* 1 me supergroup :00 /user/me/samples/cachefile/out/part $ hdfs dfs -cat /user/me/samples/cachefile/out/part This is just the cache string This is just the second cache string 更多的使用例子 Hadoop Partitioner Class 8 / 12

9 Hadoop 内置提供了一个名为 KeyFieldBasedPartitioner 的类, 这个类在很多程序中使用 这个类可以将 map 输出的内容按照分隔后的一定列, 而不是整个 key 内容进行分区, 例如 : -D stream.map.output.field.separator=. \ -D stream.num.map.output.key.fields=4 \ -D map.output.key.field.separator=. \ -D mapreduce.partition.keypartitioner.options=-k1,2 \ -D mapreduce.job.reduces=12 \ -mapper /bin/cat \ -reducer /bin/cat \ -partitioner org.apache.hadoop.mapred.lib.keyfieldbasedpartitioner map.output.key.field.separator=.: 设置 map 输出分区时 key 内部的分割符为. mapreduce.partition.keypartitioner.options=-k1,2: 设置按前两个字段分区 mapreduce.job.reduces=12:reduce 数为 12 比如上面例子 map 输出的 key 如下 : 按照前两个字段进行分区, 则会分为三个分区 : / 12

10 在每个分区内对整行内容排序后为 : Hadoop Comparator Class Hadoop 中有一个类 KeyFieldBasedComparator, 提供了 Unix/GNU 中排序的一部分特性 使用如下 : -D mapreduce.job.output.key.comparator.class=org.apache.hadoop.mapreduce.lib.partition. KeyFieldBasedComparator \ -D stream.map.output.field.separator=. \ -D stream.num.map.output.key.fields=4 \ -D mapreduce.map.output.key.field.separator=. \ -D mapreduce.partition.keycomparator.options=-k2,2nr \ -D mapreduce.job.reduces=1 \ -mapper /bin/cat \ -reducer /bin/cat mapreduce.partition.keycomparator.options=-k2,2nr: 指定第二个字段为排序字段,-n 是指按自然顺序排序,-r 指倒叙排序 比如上面例子 map 输出的 key 如下 : / 12

11 那么 Reduce 的输出结果如下 Hadoop Aggregate Package Hadoop 中有一个类 Aggregate,Aggregate 提供了一个特定的 reduce 类和 combiner 类, 以及一些对 reduce 输出的聚合函数, 例如 sum min max 等等 为了使用 Aggregate, 我们只需要定义 -reducer aggregate 参数, 如下 : -mapper myaggregatorforkeycount.py \ -reducer aggregate \ -file myaggregatorforkeycount.py \ myaggregatorforkeycount.py 文件大概内容如下 : #!/usr/bin/python import sys; def generatelongcounttoken(id): return "LongValueSum:" + id + "\t" + "1" def main(argv): line = sys.stdin.readline(); try: while line: line = line[:-1]; fields = line.split("\t"); print generatelongcounttoken(fields[0]); line = sys.stdin.readline(); except "end of file": return None 11 / 12

12 Powered by TCPDF ( if name == " main ": main(sys.argv) Hadoop Field Selection Class Hadoop 中有一个类 FieldSelectionMapReduce, 运行你像 unix 中的 cut 命令一样处理文本 使用如下 : -D mapreduce.map.output.key.field.separator=. \ -D mapreduce.partition.keypartitioner.options=-k1,2 \ -D mapreduce.fieldsel.data.field.separator=. \ -D mapreduce.fieldsel.map.output.key.value.fields.spec=6,5,1-3:0- \ -D mapreduce.fieldsel.reduce.output.key.value.fields.spec=0-2:5- \ -D mapreduce.map.output.key.class=org.apache.hadoop.io.text \ -D mapreduce.job.reduces=12 \ -mapper org.apache.hadoop.mapred.lib.fieldselectionmapreduce \ -reducer org.apache.hadoop.mapred.lib.fieldselectionmapreduce \ -partitioner org.apache.hadoop.mapred.lib.keyfieldbasedpartitioner mapreduce.fieldsel.map.output.key.value.fields.spec=6,5,1-3:0-: 意思是 map 的输出中 key 部分包括分隔后的第 列, 而 value 部分包括分隔后的所有的列 mapreduce.fieldsel.reduce.output.key.value.fields.spec=0-2:5-: 意思是 map 的输出中 key 部分包括分隔后的第 列, 而 value 部分包括分隔后的从第 5 列开始的所有列 本博客文章除特别声明, 全部都是原创! 转载本文请加上 : 转载自过往记忆 ( 本文链接 : () 12 / 12

-mapper rg.apache.hadp.mapred.lib.identitymapper \ -reducer /bin/wc 用户可以设定 stream.nn.zer.exit.is.failure true 或 false 来 表明 streaming task 的返回值非零时是 Fai

-mapper rg.apache.hadp.mapred.lib.identitymapper \ -reducer /bin/wc 用户可以设定 stream.nn.zer.exit.is.failure true 或 false 来 表明 streaming task 的返回值非零时是 Fai Hadp Streaming Hadp Streaming Hadp streaming 是 Hadp 的一个工具, 它帮助用户创建和运行一类特殊的 map/reduce 作业, 这些特殊的 map/reduce 作业是由一些可执行文件或脚本文件 充当 mapper 或者 reducer 例如 : -mapper /bin/cat \ -reducer /bin/wc Streaming 工作原理

More information

使用MapReduce读取XML文件

使用MapReduce读取XML文件 使用 MapReduce 读取 XML 文件 XML( 可扩展标记语言, 英语 :extensible Markup Language, 简称 : XML) 是一种标记语言, 也是行业标准数据交换交换格式, 它很适合在系统之间进行数据存储和交换 ( 话说 Hadoop H ive 等的配置文件就是 XML 格式的 ) 本文将介绍如何使用 MapReduce 来读取 XML 文件 但是 Had oop

More information

Apache CarbonData集群模式使用指南

Apache CarbonData集群模式使用指南 我们在 Apache CarbonData 快速入门编程指南 文章中介绍了如何快速使用 Apache CarbonData, 为了简单起见, 我们展示了如何在单机模式下使用 Apache CarbonData 但是生产环境下一般都是使用集群模式, 本文主要介绍如何在集群模式下使用 Apache CarbonData 启动 Spark shell 这里以 Spark shell 模式进行介绍,master

More information

通过Hive将数据写入到ElasticSearch

通过Hive将数据写入到ElasticSearch 我在 使用 Hive 读取 ElasticSearch 中的数据 文章中介绍了如何使用 Hive 读取 ElasticSearch 中的数据, 本文将接着上文继续介绍如何使用 Hive 将数据写入到 ElasticSearch 中 在使用前同样需要加入 elasticsearch-hadoop-2.3.4.jar 依赖, 具体请参见前文介绍 我们先在 Hive 里面建个名为 iteblog 的表,

More information

Hadoop&Spark解决二次排序问题(Hadoop篇)

Hadoop&Spark解决二次排序问题(Hadoop篇) Hadoop&Spark 解决二次排序问题 (Spark 篇 ) 问题描述 二次排序就是 key 之间有序, 而且每个 Key 对应的 value 也是有序的 ; 也就是对 MapReduce 的输出 (KEY, Value(v 1,v 2,v 3,...,v n )) 中的 Value(v 1,v 2,v 3,...,v n ) 值进行排序 ( 升序或者降序 ), 使得 Value(s 1,s 2,s

More information

Guava学习之Resources

Guava学习之Resources Resources 提供提供操作 classpath 路径下所有资源的方法 除非另有说明, 否则类中所有方法的参数都不能为 null 虽然有些方法的参数是 URL 类型的, 但是这些方法实现通常不是以 HTTP 完成的 ; 同时这些资源也非 classpath 路径下的 下面两个函数都是根据资源的名称得到其绝对路径, 从函数里面可以看出,Resources 类中的 getresource 函数都是基于

More information

三种方法实现Hadoop(MapReduce)全局排序(1)

三种方法实现Hadoop(MapReduce)全局排序(1) 三种方法实现 Hadoop(MapReduce) 全局排序 () 三种方法实现 Hadoop(MapReduce) 全局排序 () 我们可能会有些需求要求 MapReduce 的输出全局有序, 这里说的有序是指 Key 全局有序 但是我们知道,MapReduce 默认只是保证同一个分区内的 Key 是有序的, 但是不保证全局有序 基于此, 本文提供三种方法来对 MapReduce 的输出进行全局排序

More information

Spark读取Hbase中的数据

Spark读取Hbase中的数据 Spark 读取 Hbase 中的数据 Spark 和 Flume-ng 整合, 可以参见本博客 : Spark 和 Flume-ng 整合 使用 Spark 读取 HBase 中的数据 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 大家可能都知道很熟悉 Spark 的两种常见的数据读取方式 ( 存放到 RDD 中 ):(1)

More information

Flink on YARN部署快速入门指南

Flink on YARN部署快速入门指南 Apache Flink 是一个高效 分布式 基于 Java 和 Scala( 主要是由 Java 实现 ) 实现的通用大数据分析引擎, 它具有分布式 MapReduce 一类平台的高效性 灵活性和扩展性以及并行数据库查询优化方案, 它支持批量和基于流的数据分析, 且提供了基于 Java 和 Scala 的 API 从 Flink 官方文档可以知道, 目前 Flink 支持三大部署模式 :Local

More information

使用Cassandra和Spark 2.0实现Rest API服务

使用Cassandra和Spark 2.0实现Rest API服务 使用 Cassandra 和 Spark 2.0 实现 Rest API 服务 在这篇文章中, 我将介绍如何在 Spark 中使用 Akkahttp 并结合 Cassandra 实现 REST 服务, 在这个系统中 Cassandra 用于数据的存储 我们已经见识到 Spark 的威力, 如果和 Cassandra 正确地结合可以实现更强大的系统 我们先创建一个 build.sbt 文件, 内容如下

More information

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO CHAPTER 使用 Hadoop 打造自己的雲 8 8.3 測試 Hadoop 雲端系統 4 Nodes Hadoop Map Reduce Hadoop WordCount 4 Nodes Hadoop Map/Reduce $HADOOP_HOME /home/ hadoop/hadoop-0.20.2 wordcount echo $ mkdir wordcount $ cd wordcount

More information

Flink快速上手(QuickStart)

Flink快速上手(QuickStart) 安装 : 下载并启动 Flink 可以在 Linux Mac OS X 以及 Windows 上运行 为了能够运行 Flink, 唯一的要求是必须安装 Java 7.x 或者更高版本 对于 Windows 用户来说, 请参考 Flink on Windows 文档, 里面介绍了如何在 Window 本地运行 Flink 下载 从下载页面 (http://flink.apache.org/downloads.html)

More information

使用Spark SQL读取Hive上的数据

使用Spark SQL读取Hive上的数据 使用 Spark SQL 读取 Hive 上的数据 Spark SQL 主要目的是使得用户可以在 Spark 上使用 SQL, 其数据源既可以是 RDD, 也可以是外部的数据源 ( 比如 Parquet Hive Json 等 ) Spark SQL 的其中一个分支就是 Spark on Hive, 也就是使用 Hive 中 HQL 的解析 逻辑执行计划翻译 执行计划优化等逻辑, 可以近似认为仅将物理执行计划从

More information

在Spring中使用Kafka:Producer篇

在Spring中使用Kafka:Producer篇 在某些情况下, 我们可能会在 Spring 中将一些 WEB 上的信息发送到 Kafka 中, 这时候我们就需要在 Spring 中编写 Producer 相关的代码了 ; 不过高兴的是,Spring 本身提供了操作 Kafka 的相关类库, 我们可以直接通过 xml 文件配置然后直接在后端的代码中使用 Kafka, 非常地方便 本文将介绍如果在 Spring 中将消息发送到 Kafka 在这之前,

More information

如何在 Apache Hive 中解析 Json 数组

如何在 Apache Hive 中解析 Json 数组 问题 我们都知道,Hive 内部提供了大量的内置函数用于处理各种类型的需求, 参见官方文档 :Hive Operators and User-Defined Functions (UDFs) 我们从这些内置的 UDF 可以看到两个用于解析 Json 的函数 :get_json_object 和 json_tuple 用过这两个函数的同学肯定知道, 其职能解析最普通的 Json 字符串, 如下 : hive

More information

使用Apache Beam读写HDFS上的文件

使用Apache Beam读写HDFS上的文件 Apache Beam( 原名 Google DataFlow) 是 Google 在 2016 年 2 月份贡献给 Apache 基金会的 Apache 孵化项目, 被认为是继 MapReduce,GFS 和 BigQuery 等之后,Google 在大数据处理领域对开源社区的又一个非常大的贡献 Apache Beam 的主要目标是统一批处理和流处理的编程范式, 为无限, 乱序,web-scale

More information

Hive:用Java代码通过JDBC连接Hiveserver

Hive:用Java代码通过JDBC连接Hiveserver Hive: 用 Java 代码通过 JDBC 连接 Hiveserver 我们可以通过 CLI Client Web UI 等 Hive 提供的用户接口来和 Hive 通信, 但这三种方式最常用的是 CLI;Client 是 Hive 的客户端, 用户连接至 Hive Server 在启动 Client 模式的时候, 需要指出 Hive Server 所在节点, 并且在该节点启动 Hive Server

More information

在Fedora上部署Hadoop2.2.0伪分布式平台

在Fedora上部署Hadoop2.2.0伪分布式平台 如果你想配置完全分布式平台请参见本博客 Hadoop2.2.0 完全分布式集群平台安装与设置 首先, 你得在电脑上面安装好 jdk7, 如何安装, 这里就不说了, 网上一大堆教程! 然后安装好 ssh, 如何安装请参见本博客 Linux 平台下安装 SSH 并设置好无密码登录 ( Ubuntu 和 CentOS 如何配置 SSH 使得无密码登陆 ) 好了, 上面的前提条件部署好之后, 下面将进入 Hadoop2.2.0

More information

使用Hive读取ElasticSearch中的数据

使用Hive读取ElasticSearch中的数据 本文将介绍如何通过 Hive 来读取 ElasticSearch 中的数据, 然后我们可以像操作其他正常 Hive 表一样, 使用 Hive 来直接操作 ElasticSearch 中的数据, 将极大的方便开发人员 本文使用的各组件版本分别为 Hive0.12 Hadoop-2.2.0 ElasticSearch 2.3.4 我们先来看看 ElasticSearch 中相关表的 mapping: {

More information

Guava学习之CharSequenceReader

Guava学习之CharSequenceReader CharSequenceReader 类是以 CharSequence 的形式读取字符 CharSequenceReader 类继承自 Reader 类, 除了 remaining() hasremaining() 以及 checkopen() 函数之后, 其他的函数都是重写 Reader 类中的函数 CharSequenceReader 类声明没有用 public 关键字, 所以我们暂时还不能调用这个类

More information

Ubuntu和CentOS如何配置SSH使得无密码登陆

Ubuntu和CentOS如何配置SSH使得无密码登陆 Ubuntu 和 CentOS 如何配置 SSH 使得无密码登陆 在使用 Hadoop 的时候, 一般配置 SSH 使得我们可以无密码登录到主机, 下面分别以 Ubuntu 和 CentOS 两个平台来举例说明如何配置 SSH 使得我们可以无密码登录到主机, 当然, 你得先安装好 SSH 服务器, 并开启 ( 关于如何在 Linux 平台下安装好 SSH 请参加本博客的 Linux 平台下安装 SSH

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 The BitCoin Scripting Language 交易实例 交易结构 "result": { "txid": "921a dd24", "hash": "921a dd24", "version": 1, "size": 226, "locktime": 0, "vin": [ ], "vout": [ ], "blockhash": "0000000000000000002c510d

More information

Hive几种数据导入方式

Hive几种数据导入方式 写在前面的话, 学 Hive 这么久了, 发现目前国内还没有一本完整的介绍 Hive 的书籍, 而且互联网上面的资料很乱, 于是我决定写一些关于 Hive 的那些事 序列文章, 分享给大家 我会在接下来的时间整理有关 Hive 的资料, 如果对 Hive 的东西感兴趣, 请关注本博客 https://www.iteblog.com/archives/tag/hive-technology/ 好久没写

More information

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 odps-sdk 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基 开放数据处理服务 ODPS SDK SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基础功能的主体接口, 搜索关键词 "odpssdk-core" 一些

More information

Hadoop元数据合并异常及解决方法

Hadoop元数据合并异常及解决方法 Hadoop 元数据合并异常及解决方法 这几天观察了一下 Standby NN 上面的日志, 发现每次 Fsimage 合并完之后,Standby NN 通知 Active NN 来下载合并好的 Fsimage 的过程中会出现以下的异常信息 : 2014-04-23 14:42:54,964 ERROR org.apache.hadoop.hdfs.server.namenode.ha. StandbyCheckpointer:

More information

Kafka客户端是如何找到 leader 分区的

Kafka客户端是如何找到 leader 分区的 在正常情况下,Kafka 中的每个 Topic 都会有很多个分区, 每个分区又会存在多个副本 在这些副本中, 存在一个 leader 分区, 而剩下的分区叫做 follower, 所有对分区的读写操作都是对 leader 分区进行的 所以当我们向 Kafka 写消息或者从 Kafka 读取消息的时候, 必须先找到对应分区的 Lea der 及其所在的 Broker 地址, 这样才可以进行后续的操作

More information

Flume-ng与Mysql整合开发

Flume-ng与Mysql整合开发 Flume-ng 与 Mysql 整合开发 我们知道,Flume 可以和许多的系统进行整合, 包括了 Hadoop Spark Kafka Hbase 等等 ; 当然, 强悍的 Flume 也是可以和 Mysql 进行整合, 将分析好的日志存储到 Mysql( 当然, 你也可以存放到 pg oracle 等等关系型数据库 ) 不过我这里想多说一些 :Flume 是分布式收集日志的系统 ; 既然都分布式了,

More information

エスポラージュ株式会社 住所 : 東京都江東区大島 東急ドエルアルス大島 HP: ******************* * 关于 Java 测试试题 ******

エスポラージュ株式会社 住所 : 東京都江東区大島 東急ドエルアルス大島 HP:  ******************* * 关于 Java 测试试题 ****** ******************* * 关于 Java 测试试题 ******************* 問 1 运行下面的程序, 选出一个正确的运行结果 public class Sample { public static void main(string[] args) { int[] test = { 1, 2, 3, 4, 5 ; for(int i = 1 ; i System.out.print(test[i]);

More information

获取 Access Token access_token 是接口的全局唯一票据, 接入方调用各接口时都需使用 access_token 开发者需要进行妥善保存 access_token 的存储至少要保留 512 个字符空间 access_token 的有效期目前为 2 个小时, 需定时刷新, 重复

获取 Access Token access_token 是接口的全局唯一票据, 接入方调用各接口时都需使用 access_token 开发者需要进行妥善保存 access_token 的存储至少要保留 512 个字符空间 access_token 的有效期目前为 2 个小时, 需定时刷新, 重复 获取 Access Token access_token 是接口的全局唯一票据, 接入方调用各接口时都需使用 access_token 开发者需要进行妥善保存 access_token 的存储至少要保留 512 个字符空间 access_token 的有效期目前为 2 个小时, 需定时刷新, 重复 获取将导致上次获取的 access_token 失效 接入方可以使用 AppID 和 AppSecret

More information

三种方法实现Hadoop(MapReduce)全局排序(2)

三种方法实现Hadoop(MapReduce)全局排序(2) 三种方法实现 Hadoop(MapReduce) 全局排序 (2) 我在前面的文章介绍了 MapReduce 中两种全排序的方法及其实现 但是上面的两种方法都是有很大的局限性 : 方法一在数据量很大的时候会出现 OOM 问题 ; 方法二虽然能够将数据分散到多个 Reduce 中, 但是问题也很明显 : 我们必须手动地找到各个 Reduce 的分界点, 尽量使得分散到每个 Reduce 的数据量均衡

More information

韶关:神奇丹霞

韶关:神奇丹霞 丹霞山 南华寺 六祖慧能 韶乐 曹溪假日温泉 马坝人遗址 珠玑 巷 乳源必背瑶寨 乳源大峡谷 封面... 1 一 韶关 山水之城 神奇丹霞... 3 二 韶关不过错过的美景... 5 三 韶关行程推荐... 9 四 韶关交通... 10 1 铁路... 10 2 公路... 10 3 内部交通... 4 韶关至香港直通巴士... 五 韶关娱乐 享受慢生活... 六 韶关特产带回家... 七 食在韶关...

More information

SparkR(R on Spark)编程指南

SparkR(R on Spark)编程指南 概论 SparkR 是一个 R 语言包, 它提供了轻量级的方式使得可以在 R 语言中使用 Apache Spark 在 Spark 1.4 中,SparkR 实现了分布式的 data frame, 支持类似查询 过滤以及聚合的操作 ( 类似于 R 中的 data frames:dplyr), 但是这个可以操作大规模的数据集 SparkR DataFrames DataFrame 是数据组织成一个带有列名称的分布式数据集

More information

哼, 你 們 不 回 答 又 怎 麼 樣? 不 管 是 多 大 來 頭, 現 在 都 被 血 魔 吞 噬 無 蹤 了 你 們 幾 個 真 是 太 過 分, 我 不 犯 你 們, 你 們 卻 一 天 到 晚 來 挑 釁 我 教 尊 冷 笑 著 說 道 嗚, 大 人 土 地 大 姐 跪 下 來, 流 下

哼, 你 們 不 回 答 又 怎 麼 樣? 不 管 是 多 大 來 頭, 現 在 都 被 血 魔 吞 噬 無 蹤 了 你 們 幾 個 真 是 太 過 分, 我 不 犯 你 們, 你 們 卻 一 天 到 晚 來 挑 釁 我 教 尊 冷 笑 著 說 道 嗚, 大 人 土 地 大 姐 跪 下 來, 流 下 [tw] 天 醫 傳 奇 覺 醒 篇 [/tw][cn] 天 医 传 奇 觉 醒 篇 [/cn] 我 跌 坐 在 這 團 奇 異 的 麻 糬 上 面 城 隍 爺 和 土 地 大 姐 也 大 驚 失 色, 趕 緊 拉 住 我 的 手, 想 要 把 我 拉 起 來 看 來, 城 隍 爺 真 的 不 是 故 意 的 當 然, 我 並 不 排 除 他 們 現 在 仍 然 在 演 戲, 大 概 怕 一 旦 我

More information

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7.

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes 包管理理 工具 Helm 蔺礼强 Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes

More information

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示 完整的大数据解決方案 ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示 Dataframe Pig YARN Spark Stand Alone HDFS Spark Stand Alone Mesos Mesos Spark Streaming Hive Hadoop

More information

伊春:醉人林都

伊春:醉人林都 林海 雪淞 山野菜 狩猎 大丰河漂流 滑雪场 杜鹃花海 东北大 集 封面... 1 一 美丽林都 天然氧吧... 4 二 伊春旅游最棒体验... 6 1 春季 赏万紫千红杜鹃花海... 6 2 夏季 瞧林都醉人绿色海洋... 7 3 秋季 观层林染金梦幻美景... 8 4 冬季 看林海雪原雪凇奇观... 8 5 铁力市赶东北大集 感受风风火火的东北风情... 6 伊春狩猎 做回野性的东北汉子...

More information

六种使用Linux命令发送带附件的邮件

六种使用Linux命令发送带附件的邮件 六种使用 Linux 命令发送带附件的邮件 在很多场景中我们会使用 Shell 命令来发送邮件, 而且我们还可能在邮件里面添加附件, 本文将介绍使用 Shell 命令发送带附件邮件的几种方式, 希望对大家有所帮助 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 使用 mail 命令 mail 命令是 mailutils(on

More information

Hadoop 2.2.0安装和配置lzo

Hadoop 2.2.0安装和配置lzo Hadoop 2.2.0 安装和配置 lzo Hadoop 经常用于处理大量的数据, 如果期间的输出数据 中间数据能压缩存储, 对系统的 I/ O 性能会有提升 综合考虑压缩 解压速度 是否支持 split, 目前 lzo 是最好的选择 LZO(LZO 是 Lempel-Ziv-Oberhumer 的缩写 ) 是一种高压缩比和解压速度极快的编码, 它的特点是解压缩速度非常快, 无损压缩, 压缩后的数据能准确还原,lzo

More information

培 训 机 构 介 绍 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培

培 训 机 构 介 绍  中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培 Hadoop 2.0 培 训 Hadoop 2.0Training Hadoop 2.0 运 维 与 开 发 实 战 培 训 邀 请 函 培 训 机 构 介 绍 www.zkpk.org 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开

More information

Reducing Client Incidents through Big Data Predictive Analytics

Reducing Client Incidents through Big Data Predictive Analytics IT@lntel 白 皮 书 英 特 尔 IT 部 门 IT 最 佳 实 践 大 数 据 预 测 分 析 2013 年 12 月 通 过 大 数 据 预 测 分 析 减 少 客 户 端 事 故 总 体 概 述 相 比 过 去 的 被 动 反 应, 我 们 现 在 能 够 更 容 易 主 动 找 出 客 户 端 问 题, 并 及 时 将 其 修 复 以 免 问 题 扩 大, 从 而 为 企 业 节 约

More information

Flink快速上手之Scala API使用

Flink快速上手之Scala API使用 Flink 快速上手之 Scala API 使用 本文将介绍如何通过简单地几步来开始编写你的 Flink Scala 程序 构建工具 Flink 工程可以使用不同的工具进行构建, 为了快速构建 Flink 工程, Flink 为下面的构建工具分别提供了模板 : 1 SBT 2 Maven 这些模板可以帮助我们组织项目结构并初始化一些构建文件 SBT 创建工程 1 使用 Giter8 可以使用下面命令插件一个

More information

个人介绍 思考数据分析系统的基本指标 Hadoop 史前和史后的数据仓库流程 Hadoop 史前和史后的数据分析流程 思考 Hadoop 解决了什么样的根本问题 演讲大纲 Python 如何在构建数据仓库系统的作用 1. 使用 Python 快速构建数据分析模块 ComETL 2. 基于 Pytho

个人介绍 思考数据分析系统的基本指标 Hadoop 史前和史后的数据仓库流程 Hadoop 史前和史后的数据分析流程 思考 Hadoop 解决了什么样的根本问题 演讲大纲 Python 如何在构建数据仓库系统的作用 1. 使用 Python 快速构建数据分析模块 ComETL 2. 基于 Pytho Python&Hadoop 构建数据仓库从开源中来, 到开源中去 EasyHadoop 童小军 tongxiaojun@gmail.com 2012 年 10 年 20 日 个人介绍 思考数据分析系统的基本指标 Hadoop 史前和史后的数据仓库流程 Hadoop 史前和史后的数据分析流程 思考 Hadoop 解决了什么样的根本问题 演讲大纲 Python 如何在构建数据仓库系统的作用 1. 使用

More information

帝国CMS下在PHP文件中调用数据库类执行SQL语句实例

帝国CMS下在PHP文件中调用数据库类执行SQL语句实例 帝国 CMS 下在 PHP 文件中调用数据库类执行 SQL 语句实例 这篇文章主要介绍了帝国 CMS 下在 PHP 文件中调用数据库类执行 SQL 语句实例, 本文还详细介绍了帝国 CMS 数据库类中的一些常用方法, 需要的朋友可以参考下 例 1: 连接 MYSQL 数据库例子 (a.php)

More information

2017ÅàÑø·½°¸

2017ÅàÑø·½°¸ 1 2 3 4 1 2 3 4 5 6 7 8 9 10 11 4, Ph.D. 170 44 115 11 155 290 1 44 (1) 14 10610183 3 10610193 3 10610204 4 10610224 4 (2) 4 1-4 (1)-(4) 1 5-8 5-6 7-8 1-4 2017 (3) 8+2 6 8 2 1 2 8 2 3 4 8 2 4 4 6 4 13

More information

DPark MapReduce (Davies) davies@douban.com 2011/12/07 Velocity China 2011 Douban Douban 5500 Douban 5500 1000G, Douban 5500 1000G, 60+ Douban 5500 1000G, 60+ 200+ Douban 5500 1000G, 60+ 200+ > MooseFS

More information

Python a p p l e b e a r c Fruit Animal a p p l e b e a r c 2-2

Python a p p l e b e a r c Fruit Animal a p p l e b e a r c 2-2 Chapter 02 變數與運算式 2.1 2.1.1 2.1.2 2.1.3 2.1.4 2.2 2.2.1 2.2.2 2.2.3 type 2.2.4 2.3 2.3.1 print 2.3.2 input 2.4 2.4.1 2.4.2 2.4.3 2.4.4 2.4.5 + 2.4.6 Python Python 2.1 2.1.1 a p p l e b e a r c 65438790

More information

关林:武圣陵寝

关林:武圣陵寝 舞楼 关圣 关冢 关林国际朝圣大典 碑亭 平安殿 财神殿 朝圣 祭拜 纳祥 武帝陵寝 封面... 1 一 关林:千年关林 忠魂归处... 4 二 关林门票详解... 5 三 祈福圣域 纳祥佳地... 6 1 古建典范 舞楼... 6 2 崇高地位标识符 大门... 7 3 威扬六合 庄严仪门... 8 4 石刻典范 石狮御道... 9 5 气势恢宏 平安殿... 6 求财请愿 财神殿... 7 秀里藏忠义

More information

泰山:五岳独尊

泰山:五岳独尊 山东 泰山 东岳 封禅 观云海 看日出 十八盘 煎饼 羊汤 封面... 1 一 泰山简介及门票信息... 3 二 如何到泰山去... 5 三 泰山主要景点介绍... 9 四 泰山游行程推荐... 13 五 最经典的线路 红门线... 15 1 时间要把握好啊... 16 六 最省时的线路 天外村线... 七 最便捷的线路 桃花峪线... 八 最绿色的线路 天烛胜境线... 九 去泰山住哪儿... 十

More information

国内26省市新能源汽车推广规划已出台

国内26省市新能源汽车推广规划已出台 国 内 26 省 市 新 能 源 汽 车 推 广 规 划 已 出 台 [ 摘 要 ] 北 京 深 圳 上 海 无 锡 山 西 河 北 沈 阳 长 春 乌 鲁 木 齐 新 疆 泸 州 青 海 哈 尔 滨 等 26 省 市 新 能 源 汽 车 2016 规 划 ( 部 分 省 市 为 十 三 五 规 划 ) 出 炉 中 国 新 能 源 汽 车 从 十 城 千 辆 计 划 启 动 以 来,2009 年 到

More information

MapReduce

MapReduce MapReduce 陳威宇 Review Hadoop Hdfs Datanode Namenode files / blocks Data locality ( 在地運算 ) 2 Outline What is MapReduce Process flow Yarn Configuration Java programing 3 MapReduce Introduction Objective :

More information

投影片 1

投影片 1 Map-Reduce Programming 王耀聰陳威宇 jazz@nchc.org.tw waue@nchc.org.tw 國家高速網路與計算中心 (NCHC) 自由軟體實驗室 Outline 概念 程式基本框架及執行步驟方法 範例一 : Hadoop 的 Hello World => Word Count 說明 動手做 範例二 : 進階版 => Word Count 2 說明 動手做 2 程式基本框架

More information

三种恢复 HDFS 上删除文件的方法

三种恢复 HDFS 上删除文件的方法 三种恢复 HDFS 上删除文件的方法 我们每天都可能会操作 HDFS 上的文件, 这就很难避免误操作, 比如比较严重的误操作就是删除文件 本文针对这个问题提供了三种恢复误删除文件的方法, 希望对大家的日常运维有所帮助 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 通过垃圾箱恢复 HDFS 为我们提供了垃圾箱的功能, 也就是当我们执行

More information

北戴河:海阔天空

北戴河:海阔天空 北戴河 避暑 北方海边 赶海 观鸟 滑沙 挖螃蟹 挖虾 翡翠岛 露营 沙滩足球 烤大虾 海钓 吃螃蟹 封面... 1 一... 5 二 北戴河旅游最棒体验... 7 1 鸽子窝公园看日出... 7 2 赶海 重温儿时乐趣... 8 3 吃海鲜 烤大虾 蒸螃蟹... 10 4 北戴河 观鸟的麦加... 12 5 单车骑行海岸线 浪漫看风景... 14 6 北戴河集发观光园 做一回道地农民... 16

More information

C/C++ - 文件IO

C/C++ - 文件IO C/C++ IO Table of contents 1. 2. 3. 4. 1 C ASCII ASCII ASCII 2 10000 00100111 00010000 31H, 30H, 30H, 30H, 30H 1, 0, 0, 0, 0 ASCII 3 4 5 UNIX ANSI C 5 FILE FILE 6 stdio.h typedef struct { int level ;

More information

数据结构与算法 - Python基础

数据结构与算法 - Python基础 Python 教材及课件 课件及作业见网址 xpzhang.me 1 1. Python 2. 3. (list) (tuple) 4. (dict) (set) 5. 6. 7. 2 Python Python 3 Python 4 Python 1, 100, -8080, 0,... 0x 0-9, a-f 0 xff00, 0 xa432bf 5 1.24, 3.14, -9.80,...

More information

1.JasperReport ireport JasperReport ireport JDK JDK JDK JDK ant ant...6

1.JasperReport ireport JasperReport ireport JDK JDK JDK JDK ant ant...6 www.brainysoft.net 1.JasperReport ireport...4 1.1 JasperReport...4 1.2 ireport...4 2....4 2.1 JDK...4 2.1.1 JDK...4 2.1.2 JDK...5 2.1.3 JDK...5 2.2 ant...6 2.2.1 ant...6 2.2.2 ant...6 2.3 JasperReport...7

More information

白 皮 书 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 目 录 要 点 概 述...1 业 务 挑 战...2 Hadoop* 分 发 版 注 意 事 项...3 Hadoop* 基 础 架 构 注 意 事 项

白 皮 书 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 目 录 要 点 概 述...1 业 务 挑 战...2 Hadoop* 分 发 版 注 意 事 项...3 Hadoop* 基 础 架 构 注 意 事 项 IT@Intel 白 皮 书 英 特 尔 IT 部 门 大 数 据 和 商 业 智 能 2013 年 10 月 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 要 点 概 述 仅 在 五 周 之 内, 我 们 就 实 施 了 基 于 Apache Hadoop* 英 特 尔 分 发 版 的 低 成 本 可 完 全 实 现 的 大 数

More information

上海市本科教学质量年度报告

上海市本科教学质量年度报告 上 海 市 本 科 教 学 质 量 年 度 报 告 数 据 内 涵 说 明 V2.0 版 上 海 市 教 委 高 教 处 上 海 喆 思 (2015.07.02) 目 录 一 基 本 统 计 挃 标 说 明... 4 二 挃 标 解 释... 4 1. 全 日 制 在 校 本 科 生 数 及 占 在 校 生 总 数 的 比 例 ( 学 年 )... 4 2. 当 年 本 科 招 生 与 业 总 数

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Hadoop 生 态 技 术 在 阿 里 全 网 商 品 搜 索 实 战 阿 里 巴 巴 - 王 峰 自 我 介 绍 真 名 : 王 峰 淘 宝 花 名 : 莫 问 微 博 : 淘 莫 问 2006 年 硕 士 毕 业 后 加 入 阿 里 巴 巴 集 团 淘 及 搜 索 事 业 部 ( 高 级 技 术 与 家 ) 目 前 负 责 搜 索 离 线 系 统 团 队 技 术 方 向 : 分 布 式 计 算

More information

WWW PHP

WWW PHP WWW PHP 2003 1 2 function function_name (parameter 1, parameter 2, parameter n ) statement list function_name sin, Sin, SIN parameter 1, parameter 2, parameter n 0 1 1 PHP HTML 3 function strcat ($left,

More information

ebook 99-11

ebook 99-11 11 P I C K U N I X P I C K P I C K s o r t uniq join cut paste split 11.1 sort s o r t s o r t U N I X 11.1.1 U N I X / L I N U X s o r t s o r s o r t s o r t s o r t s o r t s o r t s o r t u n i q j

More information

Java ¿ª·¢ 2.0: Óà Hadoop MapReduce ½øÐдóÊý¾Ý·ÖÎö

Java ¿ª·¢ 2.0: Óà Hadoop MapReduce ½øÐдóÊý¾Ý·ÖÎö 中 文 登 录 ( 或 注 册 ) 技 术 主 题 软 件 下 载 社 区 技 术 讲 座 搜 索 developerworks developerworks 技 术 主 题 Java technology 文 档 库 Java 开 发 2.0: 用 Hadoop MapReduce 进 行 大 数 据 分 析 成 堆 的 数 据 如 何 变 成 信 息 金 矿 Andrew Glover, 作 家

More information

Fun Time (1) What happens in memory? 1 i n t i ; 2 s h o r t j ; 3 double k ; 4 char c = a ; 5 i = 3; j = 2; 6 k = i j ; H.-T. Lin (NTU CSIE) Referenc

Fun Time (1) What happens in memory? 1 i n t i ; 2 s h o r t j ; 3 double k ; 4 char c = a ; 5 i = 3; j = 2; 6 k = i j ; H.-T. Lin (NTU CSIE) Referenc References (Section 5.2) Hsuan-Tien Lin Deptartment of CSIE, NTU OOP Class, March 15-16, 2010 H.-T. Lin (NTU CSIE) References OOP 03/15-16/2010 0 / 22 Fun Time (1) What happens in memory? 1 i n t i ; 2

More information

C++ 程序设计 告别 OJ2 - 参考答案 MASTER 2019 年 5 月 3 日 1

C++ 程序设计 告别 OJ2 - 参考答案 MASTER 2019 年 5 月 3 日 1 C++ 程序设计 告别 OJ2 - 参考答案 MASTER 2019 年 5 月 3 日 1 1 TEMPLATE 1 Template 描述 使用模板函数求最大值 使用如下 main 函数对程序进行测试 int main() { double a, b; cin >> a >> b; cout c >> d; cout

More information

06-4.indd

06-4.indd 1 02 07 13 16 20 28 33 38 42 46 48 51 57 64 65 65 66 67 68 2 3 4 5 6 7 8 9 10 11 12 13 LL T : 14 LL T 15 16 扫描电子显微镜成像模拟的 MPI 及 OpenMP 并行化 17 18 19 20 21 22 ~ ~ ~ 23 24 ~ ~ ~ ~ ~ ~ ~ 25 26 27 28 29 图 3

More information

www.jobif.com

www.jobif.com 手 机 游 戏 工 作 方 式 : 全 职 发 布 日 期 : 职 业 分 类 : 市 场 / 公 关 招 聘 人 数 : 66 招 聘 地 点 : 北 京 海 淀 学 历 要 求 : 无 要 求 职 位 名 称 : 手 机 游 戏 工 作 经 验 : 无 要 求 职 位 月 薪 : 150 招 聘 联 系 人 : 李 老 师 招 聘 电 话 : 18410197388 网 易 手 机 游 戏 体

More information

02

02 Thinking in C++: Volume One: Introduction to Standard C++, Second Edition & Volume Two: Practical Programming C++ C C++ C++ 3 3 C C class C++ C++ C++ C++ string vector 2.1 interpreter compiler 2.1.1 BASIC

More information

西岭雪山滑雪场

西岭雪山滑雪场 西南滑雪 雪山 菜鸟滑雪 雪地越野车 草地滑雪 云海 高山草原 雪上飞伞 封面... 1 一 西岭雪山雪场... 3 1 雪场概说... 3 2 雪场设施和服务... 5 3 门票和价格... 9 二 西岭雪山交通... 13 三 装备准备... 15 四 餐饮... 18 五 西岭摄影... 21 六 住在西岭... 24 七 西岭交通... 26 八 西岭气候... 29 九 危险与注意事项...

More information

C++ 程序设计 告别 OJ1 - 参考答案 MASTER 2019 年 5 月 3 日 1

C++ 程序设计 告别 OJ1 - 参考答案 MASTER 2019 年 5 月 3 日 1 C++ 程序设计 告别 OJ1 - 参考答案 MASTER 2019 年 月 3 日 1 1 INPUTOUTPUT 1 InputOutput 题目描述 用 cin 输入你的姓名 ( 没有空格 ) 和年龄 ( 整数 ), 并用 cout 输出 输入输出符合以下范例 输入 master 999 输出 I am master, 999 years old. 注意 "," 后面有一个空格,"." 结束,

More information

科学计算的语言-FORTRAN95

科学计算的语言-FORTRAN95 科 学 计 算 的 语 言 -FORTRAN95 目 录 第 一 篇 闲 话 第 1 章 目 的 是 计 算 第 2 章 FORTRAN95 如 何 描 述 计 算 第 3 章 FORTRAN 的 编 译 系 统 第 二 篇 计 算 的 叙 述 第 4 章 FORTRAN95 语 言 的 形 貌 第 5 章 准 备 数 据 第 6 章 构 造 数 据 第 7 章 声 明 数 据 第 8 章 构 造

More information

chap07.key

chap07.key #include void two(); void three(); int main() printf("i'm in main.\n"); two(); return 0; void two() printf("i'm in two.\n"); three(); void three() printf("i'm in three.\n"); void, int 标识符逗号分隔,

More information

Microsoft PowerPoint - ch6 [相容模式]

Microsoft PowerPoint - ch6 [相容模式] UiBinder wzyang@asia.edu.tw UiBinder Java GWT UiBinder XML UI i18n (widget) 1 2 UiBinder HelloWidget.ui.xml: UI HelloWidgetBinder HelloWidget.java XML UI Owner class ( Composite ) UI XML UiBinder: Owner

More information

第 4 章 Linux shell 程序设计 shell UNIX/Linux Linux shell shell if case while for shell Linux Linux 本章主要介绍 Linux shell( 默认是 bash) 的语法结构 变量定义及赋值引用 标点符号 控制语句等

第 4 章 Linux shell 程序设计 shell UNIX/Linux Linux shell shell if case while for shell Linux Linux 本章主要介绍 Linux shell( 默认是 bash) 的语法结构 变量定义及赋值引用 标点符号 控制语句等 第 4 章 Linux shell 程序设计 shell UNIX/Linux Linux shell shell if case while for shell Linux Linux 本章主要介绍 Linux shell( 默认是 bash) 的语法结构 变量定义及赋值引用 标点符号 控制语句等 本章的主要内容如下 : shell 的主要特点 类型 建立和执行方式 bash 变量的分类 定义形式及引用规则

More information

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc 在 VMWare-5.5+RedHat-9 下建立 本机 QTopia-2.1.1 虚拟平台 张大海 2008-5-9 一 资源下载 1. 需要以下安装包 : tmake-1.13.tar.gz qtopia-free-source-2.1.1.tar.gz qt-embedded-2.3.10-free.tar.gz qt-x11-2.3.2.tar.gz qt-x11-free-3.3.4.tar.gz

More information

電機工程系認可證照清單 2011/7/1

電機工程系認可證照清單                  2011/7/1 南 台 科 技 大 學 電 機 工 程 系 專 業 證 照 課 程 實 施 要 點 96 年 10 月 05 日 系 務 會 議 通 過 100 年 06 月 30 日 系 務 會 議 修 正 通 過 101 年 06 月 21 日 系 務 會 議 修 正 通 過 一 本 系 為 提 升 學 生 的 專 業 技 能, 特 訂 定 本 辦 法 二 實 施 對 象 : 本 系 日 間 部 96 學 年

More information

09 (File Processes) (mkdir) 9-3 (createnewfile) 9-4 (write) 9-5 (read) 9-6 (deletefile) 9-7 (deletedir) (Exercises)

09 (File Processes) (mkdir) 9-3 (createnewfile) 9-4 (write) 9-5 (read) 9-6 (deletefile) 9-7 (deletedir) (Exercises) 09 (File Processes) 9-1 9-2 (mkdir) 9-3 (createnewfile) 9-4 (write) 9-5 (read) 9-6 (deletefile) 9-7 (deletedir) (Exercises) Java Servlet 9-1 Servlet (File Processes) Client Servlet Servlet Java Java (Stream)

More information

WWW PHP Comments Literals Identifiers Keywords Variables Constants Data Types Operators & Expressions 2

WWW PHP Comments Literals Identifiers Keywords Variables Constants Data Types Operators & Expressions 2 WWW PHP 2003 1 Comments Literals Identifiers Keywords Variables Constants Data Types Operators & Expressions 2 Comments PHP Shell Style: # C++ Style: // C Style: /* */ $value = $p * exp($r * $t); # $value

More information

Spark作业代码(源码)IDE远程调试

Spark作业代码(源码)IDE远程调试 我们在编写 Spark Application 或者是阅读源码的时候, 我们很想知道代码的运行情况, 比如参数设置的是否正确等等 用 Logging 方式来调试是一个可以选择的方式, 但是,logging 方式调试代码有很多的局限和不便 今天我就来介绍如何通过 IDE 来远程调试 Spark 的 Application 或者是 Spar k 的源码 本文以调试 Spark Application 为例进行说明,

More information

Microsoft Word - 第4章 MapReduce分布式计算框架 -教学设计.doc

Microsoft Word - 第4章 MapReduce分布式计算框架 -教学设计.doc 传智播客 Hadoop 大数据技术原理与应用 教学设计 课程名称 : Hadoop 大数据技术原理与应用授课年级 : 20xx 年级授课学期 : 20xx 学年第一学期教师姓名 : 某某老师 2019 年 9 月 1 日 北京市昌平区建材城西路金燕龙办公楼一层电话 :400-618-4000 1 课题 名称 第 4 章 MapReduce 分布式计算框架 计划学 时 8 课时 内容分析教学目标及基本要求教学重点教学难点教学方式

More information

投影片 1

投影片 1 類 Linux BASH shell (, VBird) 2008/03/29 Linux 1 Bash Shell 令 vi vim 料流 令 / 令 理 (job control) 例 2008/03/29 Linux 2 Bash shell 2008/03/29 Linux 3 什 Shell Shell shell 2008/03/29 Linux 4 什 Shell Linux shell

More information

第一章

第一章 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1500 1450 1400 1350 1300 1250 1200 15 16 17 18 19 20 21 22 23 24 25 26 27 28 INPUT2006 29 30 31 32 33 34 35 9000 8500 8000 7500 7000 6500 6000 5500 5000 4500 4000 3500

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Linux 操 作 系 统 基 础 介 绍 课 程 目 标 及 要 求 了 解 Linux 操 作 系 统 的 登 入 方 式 掌 握 常 用 命 令 的 基 本 用 法 能 够 熟 练 在 各 个 目 录 转 换 Outline 1. Linux 操 作 系 统 简 介 2. Linux 操 作 系 统 的 登 录 3. Linux 操 作 系 统 的 目 录 结 构 4. 常 用 命 令 5.

More information

C/C++ - 字符输入输出和字符确认

C/C++ - 字符输入输出和字符确认 C/C++ Table of contents 1. 2. getchar() putchar() 3. (Buffer) 4. 5. 6. 7. 8. 1 2 3 1 // pseudo code 2 read a character 3 while there is more input 4 increment character count 5 if a line has been read,

More information

2005 Sun Microsystems, Inc Network Circle, Santa Clara, CA U.S.A. Sun Sun Berkeley BSD UNIX X/Open Company, Ltd. / Sun Sun Microsystems Su

2005 Sun Microsystems, Inc Network Circle, Santa Clara, CA U.S.A. Sun Sun Berkeley BSD UNIX X/Open Company, Ltd. / Sun Sun Microsystems Su Java Desktop System Sun Microsystems, Inc. 4150 Network Circle Santa Clara, CA 95054 U.S.A. : 819 0675 10 2005 2 2005 Sun Microsystems, Inc. 4150 Network Circle, Santa Clara, CA 95054 U.S.A. Sun Sun Berkeley

More information

201316

201316 Computer Engineering and Applications 计 算 机 工 程 与 应 用 2013,49(16) 25 基 于 开 源 Hadoop 的 矢 量 空 间 数 据 分 布 式 处 理 研 究 尹 芳 1, 冯 敏 2, 诸 云 强 2 3, 刘 睿 YIN Fang 1, FENG Min 2, ZHU Yunqiang 2, LIU Rui 3 1. 长 安 大 学

More information

将 MySQL 的全量数据导入到 Apache Solr 中

将 MySQL 的全量数据导入到 Apache Solr 中 关于分页方式导入全量数据请参照 将 MySQL 的全量数据以分页的形式导入到 Apache Solr 中 在前面几篇文章中我们介绍了如何通过 Solr 的 post 命令将各种各样的文件导入到已经创建好的 Core 或 Collection 中 但有时候我们需要的数据并不在文件里面, 而是在别的系统中, 比如 MySql 里面 不过高兴的是,Solr 针对这些数据也提供了强大的数据导入工具, 这就是

More information

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0 SDChain-Matrix 节点搭建指南 目录 1 环境要求... 3 2 软件下载... 4 3 安装部署... 4 3.1 部署可执行程序目录... 4 3.2 部署配置文件目录... 4 3.3 部署数据库文件目录... 4 3.4 部署日志文件目录... 4 3.5 部署依赖库文件目录... 4 4 配置参数... 5 5 启动运行... 7 5.1 普通模式启动... 7 5.2 加载启动模式...

More information

目 录 1 不 断 开 发 工 具 以 管 理 大 数 据...2 1.1 Hadoop* 简 介 : 支 持 从 大 数 据 中 获 得 出 色 价 值 的 可 靠 框 架... 2 1.2 大 数 据 技 术 的 行 业 生 态 系 统... 2 2 在 关 键 组 件 中 实 现 平 衡...

目 录 1 不 断 开 发 工 具 以 管 理 大 数 据...2 1.1 Hadoop* 简 介 : 支 持 从 大 数 据 中 获 得 出 色 价 值 的 可 靠 框 架... 2 1.2 大 数 据 技 术 的 行 业 生 态 系 统... 2 2 在 关 键 组 件 中 实 现 平 衡... 白 皮 书 英 特 尔 固 态 硬 盘 英 特 尔 以 太 网 融 合 网 络 英 特 尔 Hadoop* 发 行 版 软 件 应 用 大 数 据 技 术 获 得 近 实 时 分 析 巨 大 成 效 1 平 衡 的 基 础 设 施 使 工 作 负 载 完 成 时 间 从 4 小 时 缩 短 为 7 如 今, 基 于 广 泛 可 用 的 计 算 存 储 和 网 络 组 件 的 改 进, 商 业 学 术

More information

電腦做什麼事~第六章

電腦做什麼事~第六章 1 open( filename, mode ) if name == " main ": f = open(raw_input( ), r ) * *50 f.read() * *50 f.close() raw_input( ) 2 if name == " main ": f = open(raw_input( ), w ) quit state = True while state:

More information

新・解きながら学ぶJava

新・解きながら学ぶJava 481! 41, 74!= 40, 270 " 4 % 23, 25 %% 121 %c 425 %d 121 %o 121 %x 121 & 199 && 48 ' 81, 425 ( ) 14, 17 ( ) 128 ( ) 183 * 23 */ 3, 390 ++ 79 ++ 80 += 93 + 22 + 23 + 279 + 14 + 124 + 7, 148, 16 -- 79 --

More information

Apache Spark 2.4 新增内置函数和高阶函数使用介绍

Apache Spark 2.4 新增内置函数和高阶函数使用介绍 Apache Spark 2.4 新增了 24 个内置函数和 5 个高阶函数, 本文将对这 29 个函数的使用进行介绍 关于 Apache Spark 2.4 的新特性, 可以参见 Apache Spark 2.4 正式发布, 重要功能详细介绍 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 针对数组类型的函数 array_distinct

More information

3.1 num = 3 ch = 'C' 2

3.1 num = 3 ch = 'C' 2 Java 1 3.1 num = 3 ch = 'C' 2 final 3.1 final : final final double PI=3.1415926; 3 3.2 4 int 3.2 (long int) (int) (short int) (byte) short sum; // sum 5 3.2 Java int long num=32967359818l; C:\java\app3_2.java:6:

More information

C/C++ - 字符串与字符串函数

C/C++ - 字符串与字符串函数 C/C++ Table of contents 1. 2. 3. 4. 1 char C 2 char greeting [50] = " How " " are " " you?"; char greeting [50] = " How are you?"; 3 printf ("\" Ready, go!\" exclaimed John."); " Ready, go!" exclaimed

More information

38 47995529 威 福 髮 藝 店 桃 園 市 蘆 竹 區 中 山 里 福 祿 一 街 48 號 地 下 一 樓 50,000 獨 資 李 依 純 105/04/06 府 經 登 字 第 1059003070 號 39 47995534 宏 品 餐 飲 桃 園 市 桃 園 區 信 光 里 民

38 47995529 威 福 髮 藝 店 桃 園 市 蘆 竹 區 中 山 里 福 祿 一 街 48 號 地 下 一 樓 50,000 獨 資 李 依 純 105/04/06 府 經 登 字 第 1059003070 號 39 47995534 宏 品 餐 飲 桃 園 市 桃 園 區 信 光 里 民 1 08414159 惠 鴻 眼 鏡 行 桃 園 市 中 壢 區 福 德 里 中 華 路 一 段 186 號 1 樓 30,000 獨 資 宋 耀 鴻 105/04/27 府 經 登 字 第 1059003866 號 2 17891110 承 元 冷 氣 空 調 工 程 行 桃 園 市 桃 園 區 中 德 里 國 際 路 1 段 98 巷 50 號 2 樓 之 4 200,000 獨 資 詹 安 平

More information

概述

概述 OPC Version 1.6 build 0910 KOSRDK Knight OPC Server Rapid Development Toolkits Knight Workgroup, eehoo Technology 2002-9 OPC 1...4 2 API...5 2.1...5 2.2...5 2.2.1 KOS_Init...5 2.2.2 KOS_InitB...5 2.2.3

More information

DOS下常用的网络命令.PDF

DOS下常用的网络命令.PDF DOS .... 1.1... 1.2... DOS... 2.1 ARP... 2.2 Finger... 2.3 Ftp... 2.4 Nbtstat... 2.5 Netstat... 2.6 Ping... 2.7 Rcp... 2.8 Rexec... 2.9 Route... 2.10 Rsh... 2.11 Tftp... 2.12 Tracert... 1 1 1 1 1 2 3 4

More information

四川省普通高等学校

四川省普通高等学校 四 川 省 普 通 高 等 学 校 计 算 机 应 用 知 识 和 能 力 等 级 考 试 考 试 大 纲 (2013 年 试 行 版 ) 四 川 省 教 育 厅 计 算 机 等 级 考 试 中 心 2013 年 1 月 目 录 一 级 考 试 大 纲 1 二 级 考 试 大 纲 6 程 序 设 计 公 共 基 础 知 识 6 BASIC 语 言 程 序 设 计 (Visual Basic) 9

More information

江门:中国第一侨乡

江门:中国第一侨乡 开平碉楼 赤坎古镇 油菜花 梁启超故居 小鸟天堂 川岛 富康温 泉 帝都温泉 中国第一侨乡 封面... 1 一... 4 二 江门必玩景点... 6 1 碉楼游... 6 2 海岛游... 7 3 温泉游... 9 4 人文游... 11 5 生态游... 13 三 江门行程推荐... 四 江门娱乐... 五 江门美食... 六 江门购物... 七 江门住宿... 八 江门交通... 1 飞机...

More information