三种恢复 HDFS 上删除文件的方法

Size: px
Start display at page:

Download "三种恢复 HDFS 上删除文件的方法"

Transcription

1 三种恢复 HDFS 上删除文件的方法 我们每天都可能会操作 HDFS 上的文件, 这就很难避免误操作, 比如比较严重的误操作就是删除文件 本文针对这个问题提供了三种恢复误删除文件的方法, 希望对大家的日常运维有所帮助 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 通过垃圾箱恢复 HDFS 为我们提供了垃圾箱的功能, 也就是当我们执行 hadoop fs -rmr xxx 命令之后, 文件并不是马上被删除, 而是会被移动到执行这个操作用户的.Trash 目录下, 等到一定的时间后才会执行真正的删除操作 看下下面的例子 : $ sudo -uiteblog hadoop fs -rmr /user/iteblog/test.txt Moved: 'hdfs://iteblogcluster/user/iteblog/test.txt' to trash at: hdfs://iteblogcluster/user/iteblo g/.trash/current $ sudo -uiteblog hadoop fs -ls /user/iteblog/.trash/current/user/iteblog -rw-r--r-- 3 iteblog iteblog :24 /user/iteblog/.trash/current/user/iteblog/te st.txt $ sudo -uiteblog hadoop fs -mv /user/iteblog/.trash/current/user/iteblog/test.txt /user/iteblog / 1 / 5

2 $ sudo -uiteblog hadoop fs -ls /user/iteblog/test.txt -rw-r--r-- 3 iteblog iteblog :24 test.txt 从上面的例子中可以看出, 我们删了 test.txt 文件之后, 文件被移到 /user/iteblog/.trash/current/user/iteblog/test.txt 路径下, 如果这个操作属于误操作, 那么我们可以到回收站找回这个文件并直接 mv 回原来的目录即可恢复之前的数据 不过这个功能的前提是要求我们启用 fs.trash.interval 参数, 默认是 0 代表不启用垃圾箱功能 <property> <name>fs.trash.interval</name> <value>1440</value> <description> Number of minutes after which the checkpoint gets deleted. If zero, the trash feature is dis abled. This option may be configured both on the server and the client. If trash is disabled ser ver side then the client side configuration is checked. If trash is enabled on the server side the n the value configured on the server is used and the client configuration value is ignored. </description> </property> 上面的配置是说, 文件被删除会保留到.Trash 目录下一天, 超过这个时间被删除的文件就会真正被删除 所以为了误删除操作, 强烈建议开启 HDFS 回收站功能 通过快照恢复 Hadoop 从 版本开始提供了 HDFS 快照 (SnapShot) 功能 一个快照是一个全部文件系统 或者某个目录在某一时刻的镜像 利用快照可以防止用户错误操作, 管理员可以通过以滚动的方式周期性设置一个只读的快照, 这样就可以在文件系统上有若干份只读快照 如果用户意外地删除了一个文件, 就可以使用包含该文件的最新只读快照来进行恢复 下面我们来实操说明如何利用快照恢复误删除的文件 : 创建目录和文件 $ sudo -ubizdata hadoop fs -mkdir /user/iteblog/important/ $ echo "important data" sudo -uiteblog hadoop fs -put - /user/iteblog/important/importantfile.txt $ sudo -uiteblog hadoop fs -cat /user/iteblog/important/important-file.txt important data 2 / 5

3 上面我们创建了 /user/iteblog/important/ 目录, 里面有一个文件 important-file.txt, 假设这个文件是非常重要的 创建快照 $ sudo -uiteblog hadoop dfsadmin -allowsnapshot /user/iteblog/important $ sudo -uiteblog hadoop fs -createsnapshot /user/iteblog/important important-snapshot 现在我们已经为 important 目录创建了快照, 名称为 important-snapshot 误删除操作 因为开启了快照功能, 我们无法删除已经创建快照的目录 (/user/iteblog/important), 但是我们依然可以删除这个目录下的文件 ; $ sudo -uiteblog hadoop fs -rm -r /user/iteblog/important/important-file.txt 现在这个重要的文件被我们误删除了! 恢复文件 别急, 因为我们开启了快照, 所有我们可以从快照中恢复这个文件, 步骤如下 : $ sudo -uiteblog hadoop fs -ls /user/iteblog/important/.snapshot/ $ sudo -uiteblog hadoop fs -cp /user/iteblog/important/.snapshot/importantsnapshot/important-file.txt /user/iteblog/important/ $ sudo -uiteblog hadoop fs -cat /user/iteblog/important/important-file.txt important data 通过上面几步, 我们已经恢复了误删除的重要文件 通过编辑日志恢复 3 / 5

4 关于 Hadoop 的编辑日志介绍请参见 : Hadoop 文件系统元数据 fsimage 和编辑日志 edits 如果你的 Hadoop 集群没有开启回收站功能, 也没有对重要的数据创建快照, 这时候如果有人将一份非常重要的数据误删除了, 那我们如何恢复这些数据? 答案是通过修改编辑日志, 但是通过这种方法不一定能恢复已经被删除的文件, 或者只能恢复一部分被删除的文件, 也可能恢复全部误删除的数据, 这个和你的集群繁忙状态有很大的关系 而且通过这种方式恢复误删除的文件代价很高, 风险很大, 需要谨慎使用 下面我来介绍通过这种恢复删除数据的步骤 删除文件 sudo -uiteblog hadoop fs -rmr -skiptrash /user/iteblog/important-file.txt 由于上面删除操作使用了 -skiptrash 参数, 这意味着这个文件会被直接删除, 并不会先放到回收站 恢复数据 NameNode 在收到删除命令时, 会先将这个命令写到编辑日志中, 然后会告诉 DataNode 执行真正的文件删除操作 所以我们需要做的是立刻停止 NameNode 和 DataNode 节点, 阻止删除命令的执行 然后找到执行 rmr 操作发生时间对应的编辑日志, 假设是 edits_inprogress_ , 这个文件是二进制的形式, 我们需要通过 HDFS 自带的命令将这个文件转换成可读的形式, 如下 : $ hdfs oev -i edits_inprogress_ o edits_inprogress_ xml 上面执行的结果是二进制的编辑日志被转换成我们人类可读的 xml 格式的文件, 我们找到执行删除 important-file.txt 文件的命令记录 : <RECORD> <OPCODE>OP_DELETE</OPCODE> <DATA> <TXID>1624</TXID> <LENGTH>0</LENGTH> <PATH>/user/iteblog/important-file.txt</PATH> 4 / 5

5 Powered by TCPDF ( 三种恢复 HDFS 上删除文件的方法 <TIMESTAMP> </TIMESTAMP> <RPC_CLIENTID>34809cac-a89f b5-10c54d7aac1a</RPC_CLIENTID> <RPC_CALLID>1</RPC_CALLID> </DATA> </RECORD> OP_DELETE 这个标记就是删除操作, 我们将这个标记修改成比较安全的操作 ( 比如 OP_SET_PER MISSIONS), 如果这个命令是在最后, 可以直接删除, 然后保存 再将修改后的编辑日志转换成计算机能够识别的格式 : $ hdfs oev -i edits_inprogress_ xml -o edits_inprogress_ p binary 最后启动 NameNode 和 DataNode 节点, 后面就看你的造化了 本博客文章除特别声明, 全部都是原创! 转载本文请加上 : 转载自过往记忆 ( 本文链接 : () 5 / 5

通过Hive将数据写入到ElasticSearch

通过Hive将数据写入到ElasticSearch 我在 使用 Hive 读取 ElasticSearch 中的数据 文章中介绍了如何使用 Hive 读取 ElasticSearch 中的数据, 本文将接着上文继续介绍如何使用 Hive 将数据写入到 ElasticSearch 中 在使用前同样需要加入 elasticsearch-hadoop-2.3.4.jar 依赖, 具体请参见前文介绍 我们先在 Hive 里面建个名为 iteblog 的表,

More information

Hadoop元数据合并异常及解决方法

Hadoop元数据合并异常及解决方法 Hadoop 元数据合并异常及解决方法 这几天观察了一下 Standby NN 上面的日志, 发现每次 Fsimage 合并完之后,Standby NN 通知 Active NN 来下载合并好的 Fsimage 的过程中会出现以下的异常信息 : 2014-04-23 14:42:54,964 ERROR org.apache.hadoop.hdfs.server.namenode.ha. StandbyCheckpointer:

More information

Flume-ng与Mysql整合开发

Flume-ng与Mysql整合开发 Flume-ng 与 Mysql 整合开发 我们知道,Flume 可以和许多的系统进行整合, 包括了 Hadoop Spark Kafka Hbase 等等 ; 当然, 强悍的 Flume 也是可以和 Mysql 进行整合, 将分析好的日志存储到 Mysql( 当然, 你也可以存放到 pg oracle 等等关系型数据库 ) 不过我这里想多说一些 :Flume 是分布式收集日志的系统 ; 既然都分布式了,

More information

三种方法实现Hadoop(MapReduce)全局排序(1)

三种方法实现Hadoop(MapReduce)全局排序(1) 三种方法实现 Hadoop(MapReduce) 全局排序 () 三种方法实现 Hadoop(MapReduce) 全局排序 () 我们可能会有些需求要求 MapReduce 的输出全局有序, 这里说的有序是指 Key 全局有序 但是我们知道,MapReduce 默认只是保证同一个分区内的 Key 是有序的, 但是不保证全局有序 基于此, 本文提供三种方法来对 MapReduce 的输出进行全局排序

More information

使用MapReduce读取XML文件

使用MapReduce读取XML文件 使用 MapReduce 读取 XML 文件 XML( 可扩展标记语言, 英语 :extensible Markup Language, 简称 : XML) 是一种标记语言, 也是行业标准数据交换交换格式, 它很适合在系统之间进行数据存储和交换 ( 话说 Hadoop H ive 等的配置文件就是 XML 格式的 ) 本文将介绍如何使用 MapReduce 来读取 XML 文件 但是 Had oop

More information

Guava学习之Resources

Guava学习之Resources Resources 提供提供操作 classpath 路径下所有资源的方法 除非另有说明, 否则类中所有方法的参数都不能为 null 虽然有些方法的参数是 URL 类型的, 但是这些方法实现通常不是以 HTTP 完成的 ; 同时这些资源也非 classpath 路径下的 下面两个函数都是根据资源的名称得到其绝对路径, 从函数里面可以看出,Resources 类中的 getresource 函数都是基于

More information

Hive:用Java代码通过JDBC连接Hiveserver

Hive:用Java代码通过JDBC连接Hiveserver Hive: 用 Java 代码通过 JDBC 连接 Hiveserver 我们可以通过 CLI Client Web UI 等 Hive 提供的用户接口来和 Hive 通信, 但这三种方式最常用的是 CLI;Client 是 Hive 的客户端, 用户连接至 Hive Server 在启动 Client 模式的时候, 需要指出 Hive Server 所在节点, 并且在该节点启动 Hive Server

More information

在Spring中使用Kafka:Producer篇

在Spring中使用Kafka:Producer篇 在某些情况下, 我们可能会在 Spring 中将一些 WEB 上的信息发送到 Kafka 中, 这时候我们就需要在 Spring 中编写 Producer 相关的代码了 ; 不过高兴的是,Spring 本身提供了操作 Kafka 的相关类库, 我们可以直接通过 xml 文件配置然后直接在后端的代码中使用 Kafka, 非常地方便 本文将介绍如果在 Spring 中将消息发送到 Kafka 在这之前,

More information

Spark作业代码(源码)IDE远程调试

Spark作业代码(源码)IDE远程调试 我们在编写 Spark Application 或者是阅读源码的时候, 我们很想知道代码的运行情况, 比如参数设置的是否正确等等 用 Logging 方式来调试是一个可以选择的方式, 但是,logging 方式调试代码有很多的局限和不便 今天我就来介绍如何通过 IDE 来远程调试 Spark 的 Application 或者是 Spar k 的源码 本文以调试 Spark Application 为例进行说明,

More information

「西醫基層總額支付委員會《第28次委員會議紀錄

「西醫基層總額支付委員會《第28次委員會議紀錄 西 醫 基 層 總 額 支 付 委 員 會 101 年 第 2 次 委 員 會 議 紀 錄 時 間 :101 年 5 月 23 日 下 午 2 時 地 點 : 中 央 健 康 保 險 局 18 樓 會 議 室 ( 台 北 市 信 義 路 3 段 140 號 18 樓 ) 主 席 : 黃 召 集 人 三 桂 出 席 委 員 : 王 委 員 正 坤 王 委 員 錦 基 古 委 員 博 仁 王 正 坤 王

More information

投影片 1

投影片 1 中 國 文 學 學 與 教 系 列 照 顧 學 生 的 多 樣 性 教 學 經 驗 分 享 會 與 教 系 列 照 顧 學 生 的 多 樣 性 地 利 亞 修 女 紀 念 學 校 ( 協 和 ) 李 浩 芝 老 師 教 學 經 驗 分 享 會 1 學 校 背 景 直 資 學 校 只 收 新 移 民 全 年 收 生 2 中 三 推 介 困 難 : 欠 缺 興 趣, 認 為 與 日 常 生 活 無 關

More information

江门:中国第一侨乡

江门:中国第一侨乡 开平碉楼 赤坎古镇 油菜花 梁启超故居 小鸟天堂 川岛 富康温 泉 帝都温泉 中国第一侨乡 封面... 1 一... 4 二 江门必玩景点... 6 1 碉楼游... 6 2 海岛游... 7 3 温泉游... 9 4 人文游... 11 5 生态游... 13 三 江门行程推荐... 四 江门娱乐... 五 江门美食... 六 江门购物... 七 江门住宿... 八 江门交通... 1 飞机...

More information

是 喔, 就 是 那 個 在 BBS 醫 療 版 跟 你 嗆 聲, 自 稱 有 三 十 多 年 推 拿 經 驗 的 大 叔 嗎? 一 個 看 來 頗 為 清 秀 的 女 生 問 道, 她 語 氣 中 略 感 訝 異 是 啊, 什 麼 推 拿 按 摩 有 多 好, 還 要 人 生 病 盡 量 不 要

是 喔, 就 是 那 個 在 BBS 醫 療 版 跟 你 嗆 聲, 自 稱 有 三 十 多 年 推 拿 經 驗 的 大 叔 嗎? 一 個 看 來 頗 為 清 秀 的 女 生 問 道, 她 語 氣 中 略 感 訝 異 是 啊, 什 麼 推 拿 按 摩 有 多 好, 還 要 人 生 病 盡 量 不 要 [tw] 天 醫 傳 奇 回 憶 篇 [/tw][cn] 天 医 传 奇 回 忆 篇 [/cn] 少 年 的 時 光 是 容 易 凋 謝 的 玫 瑰, 又 像 是 不 停 等 的 河 流, 總 會 在 某 一 個 渡 口 駐 岸 時, 才 發 現, 滾 滾 河 水 夾 帶 著 輕 舟, 在 不 經 意 間, 已 經 漂 流 過 萬 重 山 A.D.1999.12.31 傍 晚 新 竹 綠 莎 庭 園

More information

Apache Spark 2.4 新增内置函数和高阶函数使用介绍

Apache Spark 2.4 新增内置函数和高阶函数使用介绍 Apache Spark 2.4 新增了 24 个内置函数和 5 个高阶函数, 本文将对这 29 个函数的使用进行介绍 关于 Apache Spark 2.4 的新特性, 可以参见 Apache Spark 2.4 正式发布, 重要功能详细介绍 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 针对数组类型的函数 array_distinct

More information

2013年度西藏自治区教育厅

2013年度西藏自治区教育厅 附 件 3: 西 藏 自 治 区 国 土 资 源 厅 2016 年 度 部 门 预 算 2016 年 3 月 16 日 1 目 录 第 一 部 分 西 藏 自 治 区 国 土 资 源 厅 概 况 一 主 要 职 能 二 部 门 单 位 构 成 第 二 部 分 西 藏 国 土 资 源 厅 2016 年 度 部 门 预 算 表 一 财 政 拨 款 收 支 总 表 二 一 般 公 共 预 算 支 出 表

More information

薛 秦 高 继 宁 宋 明 锁 文 洪 梁 瑞 敏 贾 跃 进 内 蒙 古 自 治 区 (3 人 ) 琪 格 其 图 米 子 良 赵 震 生 辽 宁 省 (8 人 ) 田 素 琴 白 凤 鸣 肖 瑞 崇 黄 恩 申 白 长 川 杨 世 勇 李 敬 林 王 秀 云 吉 林 省 (5 人 ) 赵 继 福

薛 秦 高 继 宁 宋 明 锁 文 洪 梁 瑞 敏 贾 跃 进 内 蒙 古 自 治 区 (3 人 ) 琪 格 其 图 米 子 良 赵 震 生 辽 宁 省 (8 人 ) 田 素 琴 白 凤 鸣 肖 瑞 崇 黄 恩 申 白 长 川 杨 世 勇 李 敬 林 王 秀 云 吉 林 省 (5 人 ) 赵 继 福 2014 年 全 国 名 老 中 医 药 专 家 传 承 工 作 室 建 设 项 目 专 家 名 单 北 京 市 (5 人 ) 王 文 友 张 志 真 王 应 麟 黄 丽 娟 高 才 达 天 津 市 (5 人 ) 马 融 于 志 强 吴 炳 忠 武 连 仲 张 洪 义 河 北 省 (6 人 ) 韩 志 河 张 士 舜 李 淑 荣 刘 玉 洁 刘 启 泉 高 慧 山 西 省 (6 人 ) 北 京 市

More information

64 [ 46 ] (p297) 1924 :? [ 47 ] (p570) ; ; ; ; ; ; ; ; ; ; ; [ 11 ]; [ 35 ] [ 49 ] [ 32 ] ( ) [ 48 ] (p 425) [ 50 ] (p 670 6

64 [ 46 ] (p297) 1924 :? [ 47 ] (p570) ; ; ; ; ; ; ; ; ; ; ; [ 11 ]; [ 35 ] [ 49 ] [ 32 ] ( ) [ 48 ] (p 425) [ 50 ] (p 670 6 63 2002 7 ( ) ( 100871) [ ] K262. 81g. 82 [ ] A [ ] 058320214 (2002) 0720063211 ; [ 44 ] (p 202) 12 : ; ; ; : [ 42 ] (p 129 216) [ 11 ] [ 32 ] (1926 11 19 ) 1927 ( ) ; [ 45 ] (p108) [ 43 ] (p 5142515 5222523)

More information

Flink快速上手之Scala API使用

Flink快速上手之Scala API使用 Flink 快速上手之 Scala API 使用 本文将介绍如何通过简单地几步来开始编写你的 Flink Scala 程序 构建工具 Flink 工程可以使用不同的工具进行构建, 为了快速构建 Flink 工程, Flink 为下面的构建工具分别提供了模板 : 1 SBT 2 Maven 这些模板可以帮助我们组织项目结构并初始化一些构建文件 SBT 创建工程 1 使用 Giter8 可以使用下面命令插件一个

More information

QUESTION BANK 07132010- UPDATED FOR STUDENT ONLY.xls

QUESTION BANK 07132010- UPDATED FOR STUDENT ONLY.xls 1 下 列 哪 一 個 是 胃 經 在 胸 部 的 走 向? A. 中 線 旁 開 0.5 寸 B. 中 線 旁 開 2 寸 C. 中 線 旁 開 4 寸 D. 中 線 旁 開 6 寸 E. 2 大 腸 經 和 肺 經 在 何 處 相 會? A. 拇 指 的 橈 側 B. 拇 指 的 尺 側 C. 食 指 的 橈 側 D. 食 指 的 尺 側 E. 3 脾 經 在 何 處 行 于 下 肢 内 側 面

More information

三种方法实现Hadoop(MapReduce)全局排序(2)

三种方法实现Hadoop(MapReduce)全局排序(2) 三种方法实现 Hadoop(MapReduce) 全局排序 (2) 我在前面的文章介绍了 MapReduce 中两种全排序的方法及其实现 但是上面的两种方法都是有很大的局限性 : 方法一在数据量很大的时候会出现 OOM 问题 ; 方法二虽然能够将数据分散到多个 Reduce 中, 但是问题也很明显 : 我们必须手动地找到各个 Reduce 的分界点, 尽量使得分散到每个 Reduce 的数据量均衡

More information

Linux服务器构建与运维管理

Linux服务器构建与运维管理 1 Linux 服务器构建与运维管理 第 2 章 :Linux 基本命令 阮晓龙 13938213680 / [email protected] http://linux.xg.hactcm.edu.cn http://www.51xueweb.cn 河南中医药大学管理科学与工程学科 2018.3 2 提纲 目录与文件的操作 mkdir touch mv cp rm rmdir file tree

More information

奇虎360正式开源深度学习调度平台XLearning

奇虎360正式开源深度学习调度平台XLearning 本文系奇虎 360 系统部相关工程师投稿 近两年人工智能技术发展迅速, 以 Google 开源的 TensorFlow 为代表的各种深度学习框架层出不穷 为了方便算法工程师使用各类深度学习技术, 减少繁杂的诸如运行环境部署运维等工作, 提升 GPU 等硬件资源利用率, 节省硬件投入成本, 奇虎 360 系统部大数据团队与人工智能研究院联合开发了深度学习调度平台 XLearning XLearning

More information

PDF 入不思議解脫境界普賢行願品 ... 《大方廣佛華嚴經卷第四十》

PDF 入不思議解脫境界普賢行願品 ... 《大方廣佛華嚴經卷第四十》 gustav / January 01, 2015 09:07PM T10n0293_p0844b14(00) T10n0293_p0844b15(00) T10n0293_p0844b16(00) 大 方 廣 佛 華 嚴 經 卷 第 四 十 T10n0293_p0844b17(00) T10n0293_p0844b18(00) 罽 賓 國 三 藏 般 若 奉 詔 譯 T10n0293_p0844b19(00)

More information

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO CHAPTER 使用 Hadoop 打造自己的雲 8 8.3 測試 Hadoop 雲端系統 4 Nodes Hadoop Map Reduce Hadoop WordCount 4 Nodes Hadoop Map/Reduce $HADOOP_HOME /home/ hadoop/hadoop-0.20.2 wordcount echo $ mkdir wordcount $ cd wordcount

More information

生产工艺难突破制约草铵膦行业发展

生产工艺难突破制约草铵膦行业发展 利 尔 化 学 - 1. 草 铵 膦 简 介 草 铵 膦 由 赫 斯 特 公 司 于 80 年 代 开 发 成 功, 属 广 谱 触 杀 型 除 草 剂, 内 吸 作 用 不 强, 与 草 甘 膦 杀 根 不 同, 草 铵 膦 先 杀 叶, 通 过 植 物 蒸 腾 作 用 可 以 在 植 物 木 质 部 进 行 传 导, 其 速 效 性 间 于 百 草 枯 和 草 甘 膦 之 间 主 要 用 于 果

More information

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7.

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes 包管理理 工具 Helm 蔺礼强 Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes

More information

腰部酸痛保健法

腰部酸痛保健法 識 臨 都 老 年 勞 不 不 理 不 便 了 療 離 狀 力 力 易 拉 狀 勞 裂 類 老 年 刺 滑 不 良 六 尿 列 類 說 裂 神 神 見 勞 滑 不 烈 兩 來 暴 力 勞 裂 刺 神 神 狀 見 勞 見 臨 度 降 年 連 都 類 淋 刺 刺 不 勞 易 老 不 不 若 神 神 行 力 不 良 了 不 良 立 年 女 老 年 度 度 度 勞 見 老

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Hadoop 生 态 技 术 在 阿 里 全 网 商 品 搜 索 实 战 阿 里 巴 巴 - 王 峰 自 我 介 绍 真 名 : 王 峰 淘 宝 花 名 : 莫 问 微 博 : 淘 莫 问 2006 年 硕 士 毕 业 后 加 入 阿 里 巴 巴 集 团 淘 及 搜 索 事 业 部 ( 高 级 技 术 与 家 ) 目 前 负 责 搜 索 离 线 系 统 团 队 技 术 方 向 : 分 布 式 计 算

More information

使用Apache Spark将数据写入ElasticSearch

使用Apache Spark将数据写入ElasticSearch 使用 Apache Spark 将数据写入 ElasticSearch ElasticSearch 是一个基于 Lucene 的搜索服务器 它提供了一个分布式多用户能力的全文搜索引擎, 基于 RESTful web 接口 Elasticsearch 是用 Java 开发的, 并作为 Apache 许可条款下的开放源码发布, 是当前流行的企业级搜索引擎 设计用于云计算中, 能够达到实时搜索, 稳定,

More information

Microsoft Word - linux命令及建议.doc

Microsoft Word - linux命令及建议.doc Linux 操 作 系 统 命 令 集 1 基 本 命 令 查 看 系 统 信 息 : uname -a 修 改 密 码 : passwd 退 出 : logout(exit) 获 取 帮 助 : man commands 2 文 件 和 目 录 命 令 显 示 当 前 工 作 目 录 : pwd 改 变 所 在 目 录 : cd cd - 切 换 到 上 一 次 使 用 的 目 录 cd 切 换

More information

发展党员材料填写参考(上网).doc

发展党员材料填写参考(上网).doc 华 中 科 技 大 学 党 员 发 展 材 料 填 写 参 考 中 共 华 中 科 技 大 学 委 员 会 组 织 部 2010 年 3 月 31 日 目 录 1 党 员 发 展 材 料 一 览 表... 1 2 入 党 志 愿 书 填 写 参 考... 2 3 申 请 入 党 积 极 分 子 培 养 考 察 登 记 表 填 写 参 考... 13 4 华 中 科 技 大 学 发 展 党 员 综 合

More information

童话.doc

童话.doc 童 话 目 录 世 界 著 名 童 话...1 知 名 童 话 故 事 网 站...1 童 话 的 简 要 介 绍...2 童 话 的 人 物 形 象...2 童 话 的 逻 辑 性...3 童 话 的 荒 诞 美...4 童 话 的 象 征 美...5 童 话 的 喜 剧 美...8 童 话 的 悲 剧 美...11 流 行 歌 曲 童 话...13 影 视 歌 曲 童 话...14 游 戏 童

More information

第六組公文傳閱表

第六組公文傳閱表 入 出 國 及 移 民 署 櫃 檯 服 務 項 目 一 覽 表 更 新 日 期 :96 年 4 月 臺 灣 地 區 人 民 辦 理 項 目 應 備 文 件 處 理 時 限 役 男 申 請 出 國 核 准 已 有 有 效 證 照 申 請 進 入 大 陸 地 區 許 可 在 大 陸 地 區 出 生, 未 曾 在 大 陸 地 區 設 有 戶 籍, 其 父 母 均 為 臺 灣 地 區 人 民 申 請 返 臺

More information

ebook70-5

ebook70-5 5 / 5.1 L i n u x L i n u x X L i n u x 5.1.1 touch t o u c h t o u c h G N U t o u c h # touch newfile # ls -l newfile - r w - r - - r - - 1 bball users 0 Jan 5 12 : 40 n e w f i l e t o u c h 0 # > newfile2

More information

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc 在 VMWare-5.5+RedHat-9 下建立 本机 QTopia-2.1.1 虚拟平台 张大海 2008-5-9 一 资源下载 1. 需要以下安装包 : tmake-1.13.tar.gz qtopia-free-source-2.1.1.tar.gz qt-embedded-2.3.10-free.tar.gz qt-x11-2.3.2.tar.gz qt-x11-free-3.3.4.tar.gz

More information

HBase 中加盐(Salting)之后的表如何读取:协处理器篇

HBase 中加盐(Salting)之后的表如何读取:协处理器篇 在 HBase Rowkey 设计指南 文章中, 我们介绍了避免数据热点的三种比较常见方法 : 加盐 - Salting 哈希 - Hashing 反转 - Reversing 其中在加盐 (Salting) 的方法里面是这么描述的 : 给 Rowkey 分配一个随机前缀以使得它和之前排序不同 但是在 Rowkey 前面加了随机前缀, 那么我们怎么将这些数据读出来呢? 我将分三篇文章来介绍如何读取加盐之后的表,

More information

合集

合集 Ver 1.0 版 本 目 录 第 一 章 当 大 数 据 遇 上 SSD 01 第 二 章 广 东 移 动 运 用 Hadoop 创 新 应 用 04 第 三 章 第 四 章 第 五 章 第 六 章 第 七 章 第 八 章 第 九 章 第 十 章 如 何 利 用 大 数 据 分 析 提 升 垃 圾 短 信 过 滤 效 果 广 东 电 信 用 大 数 据 重 构 室 内 网 优 大 数 据 提 升

More information

Microsoft Word - Sing Fu

Microsoft Word - Sing Fu 作 者 自 序 開 始 營 商 辦 我 在 直 一 至 九 一 七 九 九 年 七 帶 年 了 在 太 身 太 體 檢 孩 查 子 舉 家 醫 從 生 上 告 海 知 遷 由 來 於 香 長 港 期 肝 為 了 生 我 活 的 植 肝 手 病 已 經 非 開 常 始 幸 壞 運 手 術 最 是 多 成 還 功 有 的 三 年 壽 那 命 種 一 九 九 八 年 去 了 美 國 做 了 肝 臟 移 在

More information