目录 1 TACHYON 介绍 TACHYON 简介 TACHYON 系统架构 系统架构 Tachyon Master 结构 Tachyon Worker 结构 Tachyon

Size: px
Start display at page:

Download "目录 1 TACHYON 介绍 TACHYON 简介 TACHYON 系统架构 系统架构 Tachyon Master 结构 Tachyon Worker 结构 Tachyon"

Transcription

1 Tachyon 介绍及安装部署 第 1 页共 33 页

2 目录 1 TACHYON 介绍 TACHYON 简介 TACHYON 系统架构 系统架构 Tachyon Master 结构 Tachyon Worker 结构 Tachyon Client 结构 场景说明 HDFS 与 TACHYON TACHYON 编译部署 编译 TACHYON 下载并上传源代码 编译代码 单机部署 TACHYON 配置 Tachyon 格式化 Tachyon 启动 Tachyon 验证启动 停止 Tachyon 集群模式部署 TACHYON 集群环境 配置 conf/worker 配置 conf/tachyon-env.sh 向各个节点分发 Tachyon 启动 HDFS 格式化 Tachyon 启动 Tachyon 验证启动 TACHYON 的配置 Tachyon 环境变量 Tachyon 通用配置 TachyonMaster 配置 TachyonWorker 配置 用户配置 TACHYON 命令行使用 接口说明 接口操作示例 copyfromlocal copytolocal ls 和 lsr count 第 2 页共 33 页

3 3.2.5 cat mkdir rm rmr 和 touch pin 和 unpin TACHYON 实战应用 配置及启动环境 修改 spark-env.sh 启动 HDFS 启动 Tachyon TACHYON 上运行 SPARK 添加 core-site.xml 启动 Spark 集群 读取文件并保存 TACHYON 运行 MAPREDUCE 修改 core-site.xml 启动 YARN 运行 MapReduce 例子 参考资料 第 3 页共 33 页

4 1 Tachyon 介绍 Tachyon 介绍及安装部署 1.1 Tachyon 简介 随着实时计算的需求日益增多, 分布式内存计算也持续升温, 怎样将海量数据近乎实时地处理, 或者说怎样把离线批处理的速度再提升到一个新的高度是当前研究的重点 近年来, 内存的吞吐量成指数倍增长, 而磁盘的吞吐量增长缓慢, 那么将原有计算框架中文件落地磁盘替换为文件落地内存, 也是提高效率的优化点 目前已经使用基于内存计算的分布式计算框架有 :Spark Impala 及 SAP 的 HANA 等 但是其中不乏一些还是有文件落地磁盘的操作, 如果能让这些落地磁盘的操作全部落地到一个共享的内存中, 那么这些基于内存的计算框架的效率会更高 Tachyon 是 AmpLab 的李浩源所开发的一个分布式内存文件系统, 可以在集群里以访问内存的速度来访问存在 Tachyon 里的文件 Tachyon 是架构在最底层的分布式文件存储和上层的各种计算框架之间的一种中间件, 其主要职责是将那些不需要落地到 DFS 里的文件落地到分布式内存文件系统中来达到共享内存, 从而提高效率 同时可以减少内存冗余 GC 时间等,Tachyon 的在大数据中层次关系如下图所示 : Tachyon 允许文件以内存的速度在集群框架中进行可靠的共享, 就像 Spark 和 MapReduce 那样 通过利用信息继承 内存侵入,Tachyon 获得了高性能 Tachyon 工作集文件缓存在内存 第 4 页共 33 页

5 中, 并且让不同的 Jobs/Queries 以及框架都能以内存的速度来访问缓存文件 因此,Tachyon 可以减少那些需要经常使用数据集通过访问磁盘来获得的次数 1.2 Tachyon 系统架构 系统架构 Tachyon 在 Spark 平台的部署 : 总的来说,Tachyon 有三个主要的部件 :Master, Client, 与 Worker 在每个 Spark Worker 节点上, 都部署了一个 Tachyon Worker,Spark Worker 通过 Tachyon Client 访问 Tachyon 进行数据读写 所有的 Tachyon Worker 都被 Tachyon Master 所管理,Tachyon Master 通过 Tachyon Worker 定时发出的心跳来判断 Worker 是否已经崩溃以及每个 Worker 剩余的内存空间量 Tachyon Master 结构 Tachyon Master 的结构其主要功能如下 : 首先,Tachyon Master 是个主管理器, 处理从各个 Client 发出的请求, 这一系列的工作由 Service Handler 来完成 这些请求包括 : 获取 Worker 的信息, 读取 File 的 Block 信息, 创建 File 等等 ; 其次,Tachyon Master 是个 Name Node, 存放着所有文件的信息, 每个文件的信息都被封装成一个 Inode, 每个 Inode 都记录着属于这个文件的所有 Block 信息 在 Tachyon 中,Block 是文件系统存储的最小单位, 假设每个 Block 是 256MB, 如果有一个文件的大小是 1GB, 那么这个文件会被切为 4 个 Block 每个 Block 可能存在多个副本, 被存储在多个 Tachyon Worker 中, 因此 Master 里面也必须记录每个 Block 被存储的 Worker 地址 ; 第三,Tachyon Master 同时管理着所有的 Worker,Worker 会定时向 Master 发送心跳通知本次活跃状态以及剩余存储空间 Master 是通过 Master Worker Info 去记录每个 Worker 的上次心跳时间, 已使用的内存空间, 以及总存储空间等信息 第 5 页共 33 页

6 1.2.3 Tachyon Worker 结构 Tachyon Worker 主要负责存储管理 : 首先,Tachyon Worker 的 Service Handler 处理来自 Client 发来的请求, 这些请求包括 : 读取某个 Block 的信息, 缓存某个 Block, 锁住某个 Block, 向本地内存存储要求空间等等 第二,Tachyon Worker 的主要部件是 Worker Storage, 其作用是管理 Local Data( 本地的内存文件系统 ) 以及 Under File System(Tachyon 以下的磁盘文件系统, 比如 HDFS) 第三,Tachyon Worker 还有个 Data Server 以便处理其他的 Client 对其发起的数据读写请求 当由请求达到时,Tachyon 会先在本地的内存存储找数据, 如果没有找到则会尝试去其他的 Tachyon Worker 的内存存储中进行查找 如果数据完全不在 Tachyon 里, 则需要通过 Under File System 的接口去磁盘文件系统 (HDFS) 中读取 Tachyon Client 结构 Tachyon Client 主要功能是向用户抽象一个文件系统接口以屏蔽掉底层实现细节 首先, Tachyon Client 会通过 Master Client 部件跟 Tachyon Master 交互, 比如可以向 Tachyon 第 6 页共 33 页

7 Master 查询某个文件的某个 Block 在哪里 Tachyon Client 也会通过 Worker Client 部件跟 Tachyon Worker 交互, 比如向某个 Tachyon Worker 请求存储空间 在 Tachyon Client 实现中最主要的是 Tachyon File 这个部件 在 Tachyon File 下实现了 Block Out Stream, 其主要用于写本地内存文件 ; 实现了 Block In Stream 主要负责读内存文件 在 Block In Stream 内包含了两个不同的实现 :Local Block In Stream 主要是用来读本地的内存文件, 而 Remote Block In Stream 主要是读非本地的内存文件 请注意, 非本地可以是在其它的 Tachyon Worker 的内存文件里, 也可以是在 Under File System 的文件里 场景说明 现在我们通过一个简单的场景把各个部件都串起来 : 假设一个 Spark 作业发起了一个读请求, 它首先会通过 Tachyon Client 去 Tachyon Master 查询所需要的 Block 所在的位置 如果所在的 Block 不在本地的 Tachyon Worker 里, 此 Client 则会通过 Remote Block In Stream 向别的 Tachyon Worker 发出读请求, 同时在 Block 读入的过程中,Client 也会通过 Block Out Stream 把 Block 写入到本地的内存存储里, 这样就可以保证下次同样的请求可以由本机完成 1.3 HDFS 与 Tachyon HDFS(Hadoop Distributed File System) 是一个分布式文件系统 HDFS 具有高容错性 (fault-tolerant) 特点, 并且设计用来部署在低廉的硬件上 而且它提供高吞吐量 (high throughput) 来访问应用程序的数据, 适合那些有着超大数据集 (large data set) 的应用程序 HDFS 放宽了 POSIX 的要求, 这样可以实现以流的形式访问 (streaming access) 文件系统中的数据 HDFS 采用 Master/Slave 架构 HDFS 集群是由一个 Namenode 和一定数目的 Datanode 组成的 Namenode 是一台中心服务器, 负责管理文件系统的名字空间 (namespace) 以及客 第 7 页共 33 页

8 户端对文件的访问 集群中的 Datanode 一般是一个节点一个, 负责管理它所在节点上的存储 HDFS 暴露了文件系统的名字空间, 用户能够以文件的形式在上面存储数据 从内部看, 一个文件其实被分成一个或多个数据块, 这些块存储在一组 Datanode 上 Namenode 执行文件系统的名字空间操作, 比如打开 关闭 重命名文件或目录, 它也负责确定数据块到具体 Datanode 节点的映射 Datanode 负责处理文件系统客户端的读写请求, 在 Namenode 的统一调度下对数据块进行创建 删除和复制 HDFS 架构示意图如下图所示 Namenode 和 Datanode 被设计成可以在普通的商用机器上运行, 这些机器一般运行着 GNU/Linux 操作系统 HDFS 采用 Java 语言开发, 因此任何支持 Java 的机器都可以部署 Namenode 或 Datanode 由于采用了可移植性极强的 Java 语言, 使得 HDFS 可以部署到多种类型的机器上 一个典型的部署场景是一台机器上只运行一个 Namenode 实例, 而集群中的其他机器则分别运行一个 Datanode 实例 这种架构并不排斥在一台机器上运行多个 Datanode, 只不过这样的情况比较少见 集群中单一 Namenode 的结构大大简化了系统的架构 Namenode 是所有 HDFS 元数据的仲裁者和管理者, 这样用户数据永远不会流过 Namenode 对比 HDFS 和 Tachyon, 首先从两者的存储结构来看,HDFS 设计为用来存储海量文件的分布式系统,Tachyon 设计为用来缓存常用数据的分布式内存文件系统 从这点来看,Tachyon 可以认为是操作系统层面上的 Cache,HDFS 可以认为是磁盘 在可靠性方面,HDFS 采用副本技术来保证出现系统宕机等意外情况时文件访问的一致性以及可靠性 ; 而 Tachyon 是依赖于底层文件系统的可靠性来实现自身文件的可靠性的 由于相对于磁盘资源来说, 内存是非常宝贵的, 所以 Tachyon 通过在其 underfs( 一般使用 HDFS) 上写入 CheckPoint 日志信息来实现对文件系统的可恢复性 第 8 页共 33 页

9 从文件的读取以及写入方式来看,Tachyon 可以更好地利用本地模式来读取文件信息, 当文件读取客户端和文件所在的 Worker 位于一台机器上时, 客户端会直接绕过 Worker 直接读取对应的物理文件, 减少了本机的数据交互 而 HDFS 在遇到这样的情况时, 会通过本地 Socket 进行数据交换, 这也会有一定的系统资源开销 在写入文件时,HDFS 只能写入磁盘, 而 Tachyon 却提供了 5 种数据写入模式用以满足不同需求 2 Tachyon 编译部署 Tachyon 目前的最新发布版为 0.7.1, 其官方网址为 Tachyon 文件系统有 3 种部署方式 : 单机模式 集群模式和高可用集群模式, 集群模式相比于高可用集群模式区别在于多 Master 节点 下面将介绍单机和集群环境下去安装 配置和使用 Tachyon 2.1 编译 Tachyon 下载并上传源代码 第一步下载到 Tachyon 源代码 : 对于已经发布的版本可以直接从 github 下载 Tachyon 编译好的安装包并解压, 由于 Tachyon 与 Spark 版本有对应关系, 另外该系列搭建环境为 Spark1.1.0, 对应下载 Tachyon0.5.0, 版本对应参考 描述 : 下载地址为 为以下演示我们在这里下载 的是 tachyon tar.gz 源代码包, 文件大小为 831K, 如下图所示 : 第 9 页共 33 页

10 第二步在主节点上解压缩 $cd /home/hadoop/upload/ $tar -xzf tachyon tar.gz 第三步把 tachyon tar.gz 改名并移动到 /app/complied 目录下 $mv tachyon /app/complied/tachyon src $ll /app/complied 编译代码 为了更好地契合用户的本地环境, 如 Java 版本 Hadoop 版本或其他一些软件包的版本, 可以下载 Tachyon 源码自行编译 Tachyon 开源在 GitHub 上, 可以很方便地获得其不同版本的源码 Tachyon 项目采用 Maven 进行管理, 因此可以采用 mvn package 命令进行编译打包 编译 Tachyon 源代码的时候, 需要从网上下载依赖包, 所以整个编译过程机器必须保证在联网状态 编译执行如下脚本 : $cd /app/complied/tachyon src $export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m" $mvn clean package -Djava.version=1.7 -Dhadoop.version= DskipTests 第 10 页共 33 页

11 整个编译过程编译了约 3 个任务, 整个过程耗时大约 4 分钟 使用如下命令查看编译后该 Tachyon 项目大小为 72M $cd /app/complied/tachyon src $du -s /app/complied/tachyon src 完成这一步后, 我们就得到了能够运行在用户本地环境的 Tachyon, 下面我们分别介绍如何在单机和分布式环境下配置和启动 Tachyon, 在进行部署之前先把编译好的文件复制到 /app/hadoop 下并把文件夹命名为 Tachyon-0.5.0: $cd /app/complied $cp -r tachyon src /app/hadoop/tachyon $ll /app/hadoop 第 11 页共 33 页

12 2.2 单机部署 Tachyon 这里要注意一点,Tachyon 在单机 (local) 模式下启动时会自动挂载 RamFS, 所以请保证使用的账户具有 sudo 权限 注 编译好的 Tachyon 将本系列附属资源 /install 中提供, 具体名称为 10.tachyon hadoop2.2.0-complied.zip 配置 Tachyon Tachyon 相关配置文件在 $TACHYON_HOME/conf 目录下, 在 workers 文件中配置需要启动 TachyonWorker 的节点, 默认是 localhost, 所以在单机模式下不用更改 ( 在 Tachyon 版本中, 该文件为 slaves) 在这里需要修改 tachyon-env.sh 配置文件, 具体操作是将 tachyon-env.sh.template 复制为 tachyon-env.sh: $cd /app/hadoop/tachyon-0.5.0/conf $cp tachyon-env.sh.template tachyon-env.sh $ll $vi tachyon-env.sh 并在 tachyon-env.sh 中修改具体配置, 下面列举了一些重要的配置项 : JAVA_HOME: 系统中 java 的安装路径 TACHYON_MASTER_ADDRESS: 启动 TachyonMaster 的地址, 默认为 localhost, 所以在单机模式下不用更改 TACHYON_UNDERFS_ADDRESS:Tachyon 使用的底层文件系统的路径, 在单机模式下可以直接使用本地文件系统, 如 "/tmp/tachyon", 也可以使用 HDFS, 如 "hdfs://ip:port" TACHYON_WORKER_MEMORY_SIZE: 每个 TachyonWorker 使用的 RamFS 大小 第 12 页共 33 页

13 2.2.2 格式化 Tachyon 完成配置后即可以单机模式启动 Tachyon, 启动前需要格式化存储文件, 格式化和启动 Tachyon 的命令分别为 : $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon format 存储文件为 $TACHYON_HOME/underfs/tmp/tachyon 目录下 启动 Tachyon 使用如下命令启动 Tachyon, 可以看到在 /nmt/ramdisk 目录下格式化 RamFS $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon-start.sh local 验证启动 使用 JPS 命令查看 Tachyon 进程, 分别为 :TachyonWorker 和 TachyonMaster 第 13 页共 33 页

14 查看 Tachyon 监控页面, 访问地址为 停止 Tachyon 停止 Tachyon 的命令为 : $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon-stop.sh 2.3 集群模式部署 Tachyon 集群环境 集群包含三个节点 ( 该集群环境可以参考第二课 2.Spark 编译与部署 ( 上 )-- 基础环境搭建 进行搭建 ), 运行进程分布如下 : 序号 IP 地址机器名运行进程核数 / 内存用户名目录 hadoop1 TachyonMaster TachyonWorker 1 核 /3G hadoop hadoop2 TachyonWorker 1 核 /2G hadoop hadoop3 TachyonWorker 1 核 /2G hadoop /app /app/hadoop /app/hadoop/tach 配置 conf/worker Tachyon 相关配置文件在 $TACHYON_HOME/conf 目录下, 对 slaves 文件中配置需要启动 第 14 页共 33 页

15 TachyonWorker 的节点, 在这里需要设置 hadoop1 hadoop2 和 hadoop3 三个节点 : $cd /app/hadoop/tachyon-0.5.0/conf $vi slaves 配置 conf/tachyon-env.sh 在 $TACHYON_HOME/conf 目录下, 将 tachyon-env.sh.template 复制为 tachyon-env.sh, 并在 achyon-env.sh 中修改具体配置 不同于单机模式, 这里需要修改 TachyonMaster 地址以及底层文件系统路径 : $cd /app/hadoop/tachyon-0.5.0/conf $cp tachyon-env.sh.template tachyon-env.sh $vi tachyon-env.sh 在该文件中修改一下两个参数, 这里使用底层文件系统为 HDFS: export TACHYON_MASTER_ADDRESS=hadoop1 export TACHYON_UNDERFS_ADDRESS=hdfs://hadoop1: 向各个节点分发 Tachyon 使用如下命令把 hadoop 文件夹复制到 hadoop2 和 hadoop3 机器 $cd /app/hadoop/ $scp -r tachyon hadoop@hadoop2:/app/hadoop/ $scp -r tachyon hadoop@hadoop3:/app/hadoop/ 第 15 页共 33 页

16 2.3.5 启动 HDFS $cd /app/hadoop/hadoop-2.2.0/sbin $./start-dfs.sh 格式化 Tachyon 启动前需要格式化存储文件, 格式化命令为 : $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon format 可以看到在 HDFS 的 /tmp 创建了 tachyon 文件夹 第 16 页共 33 页

17 2.3.7 启动 Tachyon 在这里使用 SudoMout 参数, 需要在启动过程中输入 hadoop 的密码, 具体过程如下 : $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon-start.sh all SudoMount 启动 Tachyon 有了更多的选项 :./tachyon-start.sh all Mount 在启动前自动挂载 TachyonWorker 所使用的 RamFS, 然后启动 TachyonMaster 和所有 TachyonWorker 由于直接使用 mount 命令, 所以需要用户为 root;./tachyon-start.sh all SudoMount 在启动前自动挂载 TachyonWorker 所使用的 RamFS, 然后启动 TachyonMaster 和所有 TachyonWorker 由于使用 sudo mount 命令, 所以需要用户有 sudo 权限 ;./tachyon-start.sh all NoMount 认为 RamFS 已经挂载好, 不执行挂载操作, 只启动 TachyonMaster 和所有 TachyonWorker 第 17 页共 33 页

18 因此, 如果不想每次启动 Tachyon 都挂载一次 RamFS, 可以先使用命令./tachyon-mount.sh Mount workers 或./tachyon-mount.sh SudoMount workers 挂载好所有 RamFS, 然后使用./tachyon-start.sh all NoMount 命令启动 Tachyon 单机和集群式模式的区别就在于节点配置和启动步骤, 事实上, 也可以在集群模式下只设置一个 TachyonWorker, 此时就成为伪分布模式 验证启动 使用 JPS 命令查看 Tachyon 进程, 分别为 :TachyonWorker 和 TachyonMaster 可以在浏览器内打开 Tachyon 的 WebUI, 如 查看整个 Tachyon 的状态, 各个 TachyonWorker 的运行情况 各项配置信息和浏览文件系统等 $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon runtests 2.4 Tachyon 的配置 这里以 版本为例, 介绍 Tachyon 中可配置参数的具体含义 Tachyon 中的可配置项分为两类, 一种是系统环境变量, 用于在不同脚本间共享配置信息 ; 另一种是程序运行参数, 通过 -D 选项传入运行 Tachyon 的 JVM 中 程序运行参数又分为 : 第 18 页共 33 页

19 通用配置 (Common Configuration) TachyonMaster 配置 (Master Configuration) TachyonWorker 配置 (Worker Configuration) 用户配置 (User Configuration) 要修改或添加这些可配置项, 可修改 conf/tachyon-env.sh 文件 Tachyon 环境变量 配置项 配置项说明 JAVA_HOME TACHYON_RAM_FOLDER TACHYON_MASTER_ADDRESS TACHYON_UNDERFS_ADDRESS 系统中 JDK 的安装路径配置 ramfs 挂载的文件目录, 默认为 /mnt/ramdisk 启动 TachyonMaster 的地址, 默认为 localhost, 所以在单机模式下不用更改 Tachyon 使用的底层文件系统的路径, 本地文件系统 ( 单机模式下 ), 如 "/tmp/tachyon", 或 HDFS, 如 "hdfs://ip:port" TACHYON_WORKER_MEMORY_SIZE 每个 TachyonWorker 使用的 RamFS 大小, 默认为 1GB Tachyon 通用配置 配置项 配置项说明 tachyon.underfs.address Tachyon 在底层文件系统的的路径, 默认为 $TACHYON_UNDERFS_ADDRESS tachyon.home Tachyon 的安装路径, 启动 Tachyon 时为当前 tachyon 文件夹 的路径 tachyon.data.folder Tachyon 数据在底层文件系统的存放路径, 默认为 $TACHYON_UNDERFS_ADDRESS/tmp/tachyon/data tachyon.workers.folder tachyon.usezookeeper tachyon.zookeeper.adress tachyon.zookeeper.election.path tachyon.zookeeper.leader.path TachyonWorkers 在底层文件系统的工作路径, 默认为 $TACHYON_UNDERFS_ADDRESS/tmp/tachyon/workers TachyonMaster 是否使用 ZooKeeper 容错, 默认为 false 如果启用,ZooKeeper 的地址如果启用,Zookeeper 的 election 文件夹路径, 默认为 /election 如果启用,Zookeeper 的 leader 文件夹路径, 默认为 /leader 第 19 页共 33 页

20 tachyon.underfs.hdfs.impl 实现 HDFS 的类, 默认 org.apache.hadoop.hdfs,distributedfilesystem tachyon.max.columns Tachyon 中 RawTable 允许的最大列数, 默认为 1000 tachyon.table.metadata.byte tachyon.underfs.glusterfs.impl tachyon.underfs.glusterfs.mounts tachyon.underfs.glusterfs.volumes tachyon.underfs.glusterfs.mapred.s ystem.dir Tachyon 中 RawTable 元数据允许存储的最大字节数, 默认为 , 即 5MB 如果使用 GlusterFS 为底层文件系统, 实现 GlusterFS 的类, 默认为 org.apache.hadoop.fs.glusterfs.glusterfilesystem 如果使用 GlusterFS 为底层文件系统,GlusterFS 卷的挂载目录如果使用 GlusterFS 为底层文件系统,GlusterFS 的卷名如果使用 GlusterFS 为底层文件系统,GlusterFS 用于存放 MapReduce 中间数据的可选子目录, 默认为 glusterfs:///mapred/system tachyon.web.resources Tachyon WebUI 可用的资源, 默认为 $tachyon.home/core/src/main/webapp tachyon.async.enabled tachyon.underfs.hadoop.prefixes tachyon.test.mode 是否启用异步模式, 默认为 false 底层使用 hadoop 文件系统的前缀列表, 默认为 "hdfs://", "s3://","s3n://","glusterfs:///" 是否启用测试模式, 默认为 false tachyon.master.retry 连接重试次数, 默认为 TachyonMaster 配置 配置项 tachyon.master.worker.timeout.ms 配置项说明 TachyonMaster 和 TachyonWorker 心跳包失效时长, 默认为 60000ms tachyon.master.journal.folder TachyonMaster 的 journal 日志存放路径, 默认为 $TACHYON_HOME/journal/ tachyon.master.hostname TachyonMaster 的主机名 tachyon.master.port TachyonMaster 的远程调用通讯端口, 默认为 tachyon.master.web.port TachyonMaster 的 WebUI 端口, 默认为 第 20 页共 33 页

21 tachyon.master.web.threads TachyonMaster 的 WebUI 线程数, 默认为 9 tachyon.master.whitelist tachyon.master.temporary.folder tachyon.master.heartbeat.interval. ms 可缓存的路径前缀列表, 列表以逗号隔开, 表示该路径下的文件能够被缓存至内存, 默认为 /, 即根目录 TachyonMaster 的临时文件夹, 默认为 /tmp TachyonMaster 心跳包间隔时间, 默认为 1000ms tachyon.master.selector.threads TachyonMaster 的 thrift 监听线程数, 默认为 3 tachyon.master.queue.size.per.selec tor TachyonMaster 的 thrift 消息队列长度, 默认为 3000 tachyon.master.server.threads TachyonMaster 节点的 thrift 服务线程数, 默认为 CPU 核数的 2 倍 tachyon.master.pinlist 常驻内存的文件列表, 以逗号隔开, 表示该路径下的文件不会从 内存中剔除, 默认为 null TachyonWorker 配置 配置项 配置项说明 tachyon.worker.data.folder TachyonWorker 在 RamFS 中的工作路径, 默认为 $TACHYON_RAM_FOLDER/tachyonworker/ tachyon.work.port TachyonWorker 的远程调用通讯端口, 默认为 tachyon.worker.data.port TachyonWorker 的数据传输服务的端口, 默认为 tachyon.worker.memory.size TachyonWorker 所使用的 RamFS 大小, 默认为 $TACHYON_WORKER_MEMORY_SIZE tachyon.worker.heartbeat.timeout. ms tachyon.worker.to.master.heartbeat.interval.ms TachyonWorker 心跳包失效的时长, 默认为 10000ms TachyonWorker 向 TachyonMaster 发送心跳包的时间间隔, 默 认为 1000ms tachyon.worker.selector.threads TachyonWorker 的 thrift 监听线程数, 默认为 3 tachyon.worker.queue.size.per.selec tor TachyonWorker 的 thrift 消息队列长度, 默认为 3000 第 21 页共 33 页

22 tachyon.worker.server.threads tachyon.worker.user.timeout.ms TachyonWorker 的 thrift 服务线程数, 默认为 CPU 核数 TachyonWorker 和用户之间心跳包失效时长, 默认为 10000ms tachyon.worker.checkpoint.threads TachyonWorker 的 checkpoint 线程数, 默认为 1 tachyon.worker.per.thread.checkpoi nt.cap.mb.sec tachyon.worker.network.type TachyonWorker 的 checkpoint 的速度, 默认为 1000MB/s TachyonWorker 在传输文件数据时使用的传输方式, 默认为 NETTY, 可选为 NIO 或 NETTY 用户配置 配置项 tachyon.user.failed.space.request.li mits tachyon.user.quota.unit.bytes tachyon.user.file.buffer.byte tachyon.user.default.block.size.byt e tachyon.user.remote.read.buffer.siz e.byte tachyon.user.heartbeat.interval.ms tachyon.user.file.writetype.default 配置项说明用户向文件系统请求空间失败时的最大重试次数, 默认为 3 客用户一次向 TachyonWorker 请求的最少字节数, 默认为 , 即 8MB 用户读写文件时的缓存区大小, 默认为 , 即 1MB 用户创建文件时的默认块大小, 默认为 , 即 1GB 用户读远程文件时的缓冲区大小, 默认为 , 即 1MB 用户心跳包时间间隔, 默认为 1000ms 用户在使用 tachyon.hadoop.tfs 时的默认写类型, 默认为 CACHE_THROUGH 3 Tachyon 命令行使用 Tachyon 的命令行界面让用户可以对文件系统进行基本的操作 调用命令行工具使用以下脚本 : $./tachyon tfs 文件系统访问的路径格式如下 : tachyon://<master node address>:<master node port>/<path> 在 Tachyon 命令行使用中 tachyon://<master node address>:<master node port> 前缀可以省略, 该信息从配置文件中读取 第 22 页共 33 页

23 3.1 接口说明 可以通过如下命令查看 Tachyon 所有接口命令 $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon tfs -help 其中大部分的命令含义可以参考 Linux 下同名命令, 命令含义 : 命令 含义 cat count ls lsr mkdir rm rmr(0.5.0 版本不包含 ) tail touch mv 将文件内容输出到控制台显示匹配指定的前缀 路径 的文件夹和文件的数量 列出指定路径下所有的文件和目录信息, 如大小等 递归地列出指定路径下所有的文件和目录信息, 如大小等 在给定的路径创建一个目录, 以及任何必要的父目录 如果路径已经存在将会失败 删除一个文件 如果是一个目录的路径将会失败 删除一个文件或目录, 以及该目录下的所有文件夹和文件输出指定文件的最后 1 kb 到控制台 在指定的路径创建一个 0 字节的文件 移动指定的源文件或源目录到一个目的路径 如果目的路径已经存在将会失败 第 23 页共 33 页

24 copyfromlocal copytolocal fileinfo location report request pin unpin Free(0.5.0 版本不包含 ) 将本地指定的路径复制到 Tachyon 中指定的路径 如果 Tachyon 中指定的路径已经存在将会失败 从 Tachyon 中指定的路径复制本地指定的路径 输出指定文件的块信息 输出存放指定文件的所在节点列表信息 向 master 报告文件丢失根据指定的 dependency ID, 请求文件 将指定的路径常驻在内存中 如果指定的是一个文件夹, 会递归地包含所有文件以及任何在这个文件夹中新创建的文件 撤销指定路径的常驻内存状态 如果指定的是一个文件夹, 会递归地包含所有文件以及任何在这个文件夹中新创建的文件 释放一个文件或一个文件夹下的所有文件的内存 文件 / 文件夹在 underfs 仍然是可用的 3.2 接口操作示例 在操作之前需要把 $TACHYON_HOME/bin 配置到 /etc/profile 配置文件的 PATH 中, 并通过 source /etc/profile 生效 copyfromlocal 将本地 $TACHYON_HOME/conf 目录拷贝到 Tachyon 文件系统的根目录下的 conf 子目录 $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon tfs copyfromlocal../conf /conf $./tachyon tfs ls /conf 第 24 页共 33 页

25 3.2.2 copytolocal 把 Tachyon 文件系统文件复制到本地, 需要注意的是命令中的 src 必须是 Tachyon 文件系统中的文件不支持目录拷贝, 否则报错无法复制 $mkdir -p /home/hadoop/upload/class10/conflocal $./tachyon tfs copytolocal /conf /home/hadoop/upload/class10/conflocal $./tachyon tfs copytolocal /conf/tachyon-env.sh /home/hadoop/upload/class10/conflocal/tachyon-env.sh $ll /home/hadoop/upload/class10/conflocal ls 和 lsr 使用 ls 和 lsr 命令查看 Tachyon 文件系统下的文件信息, 其中 lsr 命令可以递归地查看子目录 $./tachyon tfs ls /conf $./tachyon tfs ls tachyon://hadoop1:19998/conf $./tachyon tfs lsr / count 统计当前路径下的目录 文件信息, 包括文件数 目录树以及总的大小 $./tachyon tfs count / 第 25 页共 33 页

26 3.2.5 cat 查看指定文件的内容 $./tachyon tfs cat /conf/slaves $./tachyon tfs cat tachyon://hadoop1:19998/conf/slaves mkdir rm rmr 和 touch (1) mkdir: 创建目录, 支持自动创建不存在的父目录 ; (2) rm: 删除文件, 不能删除目录, 注意, 递归删除根目录是无效的 (3) rmr: 删除目录, 支持递归, 包含子目录和文件, 其中 版本不提供该命令 (4) touch: 创建文件, 不能创建已经存在的文件 $./tachyon tfs mkdir /mydir $./tachyon tfs ls / $./tachyon tfs rm /mydir $./tachyon tfs touch /mydir/my.txt $./tachyon tfs lsr /mydir $./tachyon tfs rm /mydir/my.txt $./tachyon tfs touch /mydir2/2/2/my.txt $./tachyon tfs lsr /mydir2 $./tachyon tfs rm /mydir2 第 26 页共 33 页

27 $./tachyon tfs rm / $./tachyon tfs ls / pin 和 unpin pin 命令将指定的路径常驻在内存中, 如果指定的是一个文件夹会递归地包含所有文件以及任何 在这个文件夹中新创建的文件 unpin 命令撤销指定路径的常驻内存状态 pin 执行前或 unpin 执行后的 Web Interface 界面 $./tachyon tfs pin /conf/log4j.properties $./tachyon tfs unpin /conf/log4j.properties 第 27 页共 33 页

28 4 Tachyon 实战应用 4.1 配置及启动环境 修改 spark-env.sh 修改 $SPARK_HOME/conf 目录下 spark-env.sh 文件 : $cd /app/hadoop/spark-1.1.0/conf $vi spark-env.sh 在该配置文件中添加如下内容 : export SPARK_CLASSPATH=/app/hadoop/tachyon-0.5.0/client/target/tachyon-client jarwith-dependencies.jar:$SPARK_CLASSPATH 启动 HDFS $cd /app/hadoop/hadoop-2.2.0/sbin $./start-dfs.sh 启动 Tachyon 在这里使用 SudoMout 参数, 需要在启动过程中输入 hadoop 的密码, 具体过程如下 : $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon-start.sh all SudoMount 4.2 Tachyon 上运行 Spark 添加 core-site.xml 在 Tachyon 的官方文档说 Hadoop1.X 集群需要添加该配置文件 ( 参见 实际在 第 28 页共 33 页

29 Hadoop2.2.0 集群测试的过程中发现也需要添加如下配置文件, 否则无法识别以 tachyon:// 开头的文件系统, 具体操作是在 $SPARK_HOME/conf 目录下创建 core-site.xml 文件 $cd /app/hadoop/spark-1.1.0/conf $touch core-site.xml $vi core-site.xml 在该配置文件中添加如下内容 : <configuration> <property> <name>fs.tachyon.impl</name> <value>tachyon.hadoop.tfs</value> </property> </configuration> 启动 Spark 集群 $cd /app/hadoop/spark-1.1.0/sbin $./start-all.sh 读取文件并保存 第一步准备测试数据文件使用 Tachyon 命令行准备测试数据文件 $cd /app/hadoop/tachyon-0.5.0/bin $./tachyon tfs copyfromlocal../conf/tachyon-env.sh /tachyon-env.sh $./tachyon tfs ls / 第二步启动 Spark-Shell $cd /app/hadoop/spark-1.1.0/bin $./spark-shell 第三步对测试数据文件进行计数并另存 第 29 页共 33 页

30 对前面放入到 Tachyon 文件系统的文件进行计数 scala>val s = sc.textfile("tachyon://hadoop1:19998/tachyon-env.sh") scala>s.count() 把前面的测试文件另存为 tachyon-env-bak.sh 文件 scala>s.saveastextfile("tachyon://hadoop1:19998/tachyon-env-bak.sh") 第四步在 Tachyon 的 UI 界面查看 可以查看到该文件在 Tachyon 文件系统中保存成 tahyon-env-bak.sh 文件夹 该文件夹中包含两个文件, 分别为 part 和 part-00001: 第 30 页共 33 页

31 其中 tahyon-env-bak.sh/part-0001 文件中内容如下 : 另外通过内存存在文件的监控页面可以观测到, 这几个操作文件在内存中 : 4.3 Tachyon 运行 MapReduce 修改 core-site.xml 该配置文件为 $Hadoop_HOME/conf 目录下的 core-site.xml 文件 $cd /app/hadoop/hadoop-2.2.0/etc/hadoop $vi core-site.xml 修改 core-site.xml 文件配置, 添加如下配置项 : <property> <name>fs.tachyon.impl</name> <value>tachyon.hadoop.tfs</value> </property> <property> <name>fs.tachyon-ft.impl</name> <value>tachyon.hadoop.tfsft</value> </property> 第 31 页共 33 页

32 4.3.2 启动 YARN $cd /app/hadoop/hadoop-2.2.0/sbin $./start-yarn.sh 运行 MapReduce 例子 第一步创建结果保存目录 $cd /app/hadoop/hadoop-2.2.0/bin $./hadoop fs -mkdir /class10 第二步运行 MapReduce 例子 $cd /app/hadoop/hadoop-2.2.0/bin $./hadoop jar../share/hadoop/mapreduce/hadoop-mapreduce-examples jar wordcount -libjars $TACHYON_HOME/client/target/tachyon-client jar-with-dependencies.jar tachyon://hadoop1:19998/tachyon-env.sh hdfs://hadoop1:9000/class10/output 第三步查看结果 查看 HDFS, 可以看到在 /class10 中创建了 output 目录 第 32 页共 33 页

33 查看 part-r-0000 文件内容, 为 tachyon-env.sh 单词计数 5 参考资料 (1) Tachyon : Spark 生态系统中的分布式内存文件系统 (2) Tachyon 的安装 配置和使用 (3) Tachyon 官方网站 第 33 页共 33 页

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并 Spark 编译与部署 ( 下 ) --Spark 编译安装 第 1 页共 24 页 目录 1 编译 SPARK... 3 1.1 编译 SPARK(SBT)... 3 1.1.1 安装 git 并编译安装... 3 1.1.2 下载 Spark 源代码并上传... 6 1.1.3 编译代码... 7 1.2 编译 SPARK(MAVEN)... 7 1.2.1 安装 Maven 并配置参数...

More information

tar -xzf hadoop tar.gz mv hadoop /app 在 Hadoop 目录下创建子目录 在 hadoop 目录下创建 tmp name 和 data 目录 cd /app/hadoop mkdir tmp mkdir

tar -xzf hadoop tar.gz mv hadoop /app 在 Hadoop 目录下创建子目录 在 hadoop 目录下创建 tmp name 和 data 目录 cd /app/hadoop mkdir tmp mkdir Hadoop2.X 64 位环境搭建 本文版权归作者和博客园共有, 欢迎转载, 但未经作者同意必须保留此段声明, 且在文章页面明显位置给出原文连接, 博主为石山园, 博客地址为 http://www.cnblogs.com/shishanyuan 该系列课程是应邀实验楼整理编写的, 这里需要赞一下实验楼提供了学习的新方式, 可以边看博客边上机实验, 课程地址为 https://www.shiyanlou.com/courses/237

More information

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc 在 VMWare-5.5+RedHat-9 下建立 本机 QTopia-2.1.1 虚拟平台 张大海 2008-5-9 一 资源下载 1. 需要以下安装包 : tmake-1.13.tar.gz qtopia-free-source-2.1.1.tar.gz qt-embedded-2.3.10-free.tar.gz qt-x11-2.3.2.tar.gz qt-x11-free-3.3.4.tar.gz

More information

目录 1 编译 HADOOOP 搭建环境 安装并设置 maven 以 root 用户使用 yum 安装 svn 以 root 用户使用 yum 安装 autoconf automake libtool cmake..

目录 1 编译 HADOOOP 搭建环境 安装并设置 maven 以 root 用户使用 yum 安装 svn 以 root 用户使用 yum 安装 autoconf automake libtool cmake.. Spark 编译与部署 ( 中 ) --Hadoop 编译安装 第 1 页共 28 页 目录 1 编译 HADOOOP... 3 1.1 搭建环境... 3 1.1.1 安装并设置 maven... 3 1.1.2 以 root 用户使用 yum 安装 svn... 4 1.1.3 以 root 用户使用 yum 安装 autoconf automake libtool cmake... 5 1.1.4

More information

Linux服务器构建与运维管理

Linux服务器构建与运维管理 1 Linux 服务器构建与运维管理 第 2 章 :Linux 基本命令 阮晓龙 13938213680 / rxl@hactcm.edu.cn http://linux.xg.hactcm.edu.cn http://www.51xueweb.cn 河南中医药大学管理科学与工程学科 2018.3 2 提纲 目录与文件的操作 mkdir touch mv cp rm rmdir file tree

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Tachyon 存储系统的基本原理 以及与 Spark 的结合使用 顾荣 南京大学 PASA 大数据实验室 2015-10-25@Apache Roadshow(China) 内容 Tachyon 基本原理与实现 Tachyon 与 Spark 的结合使用 应用案例分析 3 什么是 Tachyon http://tachyon-project.org/ Tachyon /'tæki:ɔn/ 是以内存为中心的分布式文件系统,

More information

客户端虚拟机使用说明

客户端虚拟机使用说明 Spark 客户端云主机使用手册 更新时间 2016-05-13 目录 1 集群和客户端云主机信息... 3 2 配置主机名解析... 4 3 HDFS 测试... 4 3.1 配置客户端... 4 3.2 查询 HDFS 集群信息... 4 3.3 HDFS 文件和目录操作示例... 5 4 Spark 测试... 6 4.1 启动 spark-shell... 6 4.2 示例 :Pi 估值...

More information

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0 SDChain-Matrix 节点搭建指南 目录 1 环境要求... 3 2 软件下载... 4 3 安装部署... 4 3.1 部署可执行程序目录... 4 3.2 部署配置文件目录... 4 3.3 部署数据库文件目录... 4 3.4 部署日志文件目录... 4 3.5 部署依赖库文件目录... 4 4 配置参数... 5 5 启动运行... 7 5.1 普通模式启动... 7 5.2 加载启动模式...

More information

Apache CarbonData集群模式使用指南

Apache CarbonData集群模式使用指南 我们在 Apache CarbonData 快速入门编程指南 文章中介绍了如何快速使用 Apache CarbonData, 为了简单起见, 我们展示了如何在单机模式下使用 Apache CarbonData 但是生产环境下一般都是使用集群模式, 本文主要介绍如何在集群模式下使用 Apache CarbonData 启动 Spark shell 这里以 Spark shell 模式进行介绍,master

More information

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示 完整的大数据解決方案 ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示 Dataframe Pig YARN Spark Stand Alone HDFS Spark Stand Alone Mesos Mesos Spark Streaming Hive Hadoop

More information

在Fedora上部署Hadoop2.2.0伪分布式平台

在Fedora上部署Hadoop2.2.0伪分布式平台 如果你想配置完全分布式平台请参见本博客 Hadoop2.2.0 完全分布式集群平台安装与设置 首先, 你得在电脑上面安装好 jdk7, 如何安装, 这里就不说了, 网上一大堆教程! 然后安装好 ssh, 如何安装请参见本博客 Linux 平台下安装 SSH 并设置好无密码登录 ( Ubuntu 和 CentOS 如何配置 SSH 使得无密码登陆 ) 好了, 上面的前提条件部署好之后, 下面将进入 Hadoop2.2.0

More information

使用方法 :hadoop fs -chmod [-R] <MODE[,MODE]... OCTALMODE> URI [URI ] 改变文件的权限 使用 -R 将使改变在目录结构下递归进行 命令的使用者必须是文件的所有者或者超级用户 更多的信息请参见 HDFS 权限用户指南 chown 使用方法 :

使用方法 :hadoop fs -chmod [-R] <MODE[,MODE]... OCTALMODE> URI [URI ] 改变文件的权限 使用 -R 将使改变在目录结构下递归进行 命令的使用者必须是文件的所有者或者超级用户 更多的信息请参见 HDFS 权限用户指南 chown 使用方法 : Hadoop Shell 命令 FS Shell 调用文件系统 (FS)Shell 命令应使用 bin/hadoop fs 的形式 所有的 的 FS shell 命令使用 URI 路径作为参数 URI 格式是 scheme://authority/path 对 HDFS 文件系统,scheme 是 hdfs, 对本地文件系统,scheme 是 file 其中 scheme 和 authority

More information

Flink快速上手(QuickStart)

Flink快速上手(QuickStart) 安装 : 下载并启动 Flink 可以在 Linux Mac OS X 以及 Windows 上运行 为了能够运行 Flink, 唯一的要求是必须安装 Java 7.x 或者更高版本 对于 Windows 用户来说, 请参考 Flink on Windows 文档, 里面介绍了如何在 Window 本地运行 Flink 下载 从下载页面 (http://flink.apache.org/downloads.html)

More information

Microsoft Word - linux命令及建议.doc

Microsoft Word - linux命令及建议.doc Linux 操 作 系 统 命 令 集 1 基 本 命 令 查 看 系 统 信 息 : uname -a 修 改 密 码 : passwd 退 出 : logout(exit) 获 取 帮 助 : man commands 2 文 件 和 目 录 命 令 显 示 当 前 工 作 目 录 : pwd 改 变 所 在 目 录 : cd cd - 切 换 到 上 一 次 使 用 的 目 录 cd 切 换

More information

30.00% 25.00% 25.00% 22.50% 20.00% 15.00% 12.50% 15.00% 12.50% 10.00% 7.50% 5.00% 2.50% 2.50% 0.00% 文 学 理 学 工 学 法 学 教 育 学 管 理 学 历 史 学 艺 术 学 ( 三 ) 学 生

30.00% 25.00% 25.00% 22.50% 20.00% 15.00% 12.50% 15.00% 12.50% 10.00% 7.50% 5.00% 2.50% 2.50% 0.00% 文 学 理 学 工 学 法 学 教 育 学 管 理 学 历 史 学 艺 术 学 ( 三 ) 学 生 四 川 文 理 学 院 2014 年 本 科 教 学 质 量 报 告 2014 年 来, 在 教 育 主 管 部 门 的 关 怀 指 导 下, 在 学 校 党 政 班 子 的 正 确 领 导 下, 广 大 师 生 员 工 团 结 一 心, 按 照 国 家 中 长 期 教 育 改 革 和 发 展 规 划 纲 要 和 教 育 部 对 办 应 用 型 本 科 的 要 求, 深 入 贯 彻 落 实 学 校

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Hadoop 生 态 技 术 在 阿 里 全 网 商 品 搜 索 实 战 阿 里 巴 巴 - 王 峰 自 我 介 绍 真 名 : 王 峰 淘 宝 花 名 : 莫 问 微 博 : 淘 莫 问 2006 年 硕 士 毕 业 后 加 入 阿 里 巴 巴 集 团 淘 及 搜 索 事 业 部 ( 高 级 技 术 与 家 ) 目 前 负 责 搜 索 离 线 系 统 团 队 技 术 方 向 : 分 布 式 计 算

More information

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7.

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes 包管理理 工具 Helm 蔺礼强 Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes

More information

epub 61-2

epub 61-2 2 Web Dreamweaver UltraDev Dreamweaver 3 We b We b We Dreamweaver UltraDev We b Dreamweaver UltraDev We b We b 2.1 Web We b We b D r e a m w e a v e r J a v a S c r i p t We b We b 2.1.1 Web We b C C +

More information

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO CHAPTER 使用 Hadoop 打造自己的雲 8 8.3 測試 Hadoop 雲端系統 4 Nodes Hadoop Map Reduce Hadoop WordCount 4 Nodes Hadoop Map/Reduce $HADOOP_HOME /home/ hadoop/hadoop-0.20.2 wordcount echo $ mkdir wordcount $ cd wordcount

More information

Spark读取Hbase中的数据

Spark读取Hbase中的数据 Spark 读取 Hbase 中的数据 Spark 和 Flume-ng 整合, 可以参见本博客 : Spark 和 Flume-ng 整合 使用 Spark 读取 HBase 中的数据 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 大家可能都知道很熟悉 Spark 的两种常见的数据读取方式 ( 存放到 RDD 中 ):(1)

More information

程模型,MapReduce 把任务分为 map( 映射 ) 阶段和 reduce( 化简 ) 由于 MapReduce 工作原理的特性, Hadoop 能以并行的方式访问数据, 从而实现快速访问数据 Hbase--HBase 是一个建立在 HDFS 之上, 面向列的 NoSQL 数据库, 用于快速读

程模型,MapReduce 把任务分为 map( 映射 ) 阶段和 reduce( 化简 ) 由于 MapReduce 工作原理的特性, Hadoop 能以并行的方式访问数据, 从而实现快速访问数据 Hbase--HBase 是一个建立在 HDFS 之上, 面向列的 NoSQL 数据库, 用于快速读 Hadoop1.X 伪分布式安装 本文版权归作者和博客园共有, 欢迎转载, 但未经作者同意必须保留此段声明, 且在文章页面明显位置给出原文连接, 博主为石山园, 博客地址为 http://www.cnblogs.com/shishanyuan 该系列课程是应邀实验楼整理编写的, 这里需要赞一下实验楼提供了学习的新方式, 可以边看博客边上机实验, 课程地址为 https://www.shiyanlou.com/courses/237

More information

自由軟體教學平台

自由軟體教學平台 NCHC Opensource task force DRBL steven@nchc.gov.tw, c00hkl00@nchc.gov.tw National Center for High-Performance Computing http://www.nchc.gov.tw Jan, 2003 1 2003/1/28 ( ) 09:00-10:30 10:40-12:00 Linux 13:00-14:30

More information

. Outline 编译 Linux 在 QEMU 模拟器上运行制作带 grub 启动的磁盘映像...1 编译 Linux 在 QEMU 模拟器上运行...2 制作带 grub 启动的磁盘映像

. Outline 编译 Linux 在 QEMU 模拟器上运行制作带 grub 启动的磁盘映像...1 编译 Linux 在 QEMU 模拟器上运行...2 制作带 grub 启动的磁盘映像 .... 计算机应用教研室 @ 计算机学院嵌入式系统实验室 @ 苏州研究院中国科学技术大学 Fall 2010 . Outline 编译 Linux 在 QEMU 模拟器上运行制作带 grub 启动的磁盘映像...1 编译 Linux 在 QEMU 模拟器上运行...2 制作带 grub 启动的磁盘映像 . 编译 Linux 在 QEMU 模拟器上运行 qemu+linux-2.6.26.1. 准备模拟器.2.

More information

Ioncube Php Encoder 8 3 Crack 4. llamaba octobre traslado General Search colony

Ioncube Php Encoder 8 3 Crack 4. llamaba octobre traslado General Search colony Ioncube Php Encoder 8 3 Crack 4 ->>->>->> DOWNLOAD 1 / 5 2 / 5 Press..the..General..Tools..category4Encrypt..and..protect..files..with..PHP..encoding,..encryption,..ob fuscation..and..licensing... 2016

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Linux 操 作 系 统 基 础 介 绍 课 程 目 标 及 要 求 了 解 Linux 操 作 系 统 的 登 入 方 式 掌 握 常 用 命 令 的 基 本 用 法 能 够 熟 练 在 各 个 目 录 转 换 Outline 1. Linux 操 作 系 统 简 介 2. Linux 操 作 系 统 的 登 录 3. Linux 操 作 系 统 的 目 录 结 构 4. 常 用 命 令 5.

More information

KV-cache 1 KV-cache Fig.1 WorkflowofKV-cache 2.2 Key-value Key ; Key Mem-cache (FIFO) Value Value Key Mem-cache ( Value 256B 100 MB 20%

KV-cache 1 KV-cache Fig.1 WorkflowofKV-cache 2.2 Key-value Key ; Key Mem-cache (FIFO) Value Value Key Mem-cache ( Value 256B 100 MB 20% 38 11 2013 11 GeomaticsandInformationScienceofWuhanUniversity Vol.38No.11 Nov.2013 :1671-8860(2013)11-1339-05 :A GIS Key-value 1 1 1 1 (1 129 430079) : 设计了一种基于 Key-value 结构的缓存 KV-cache 旨在简化数据结构 高效管理缓存数据

More information

要 注 意 的 是,Flume 中 对 事 件 的 处 理 不 需 要 带 状 态, 它 的 Scalability 可 以 很 容 易 实 现 3. Manageability:Flume 利 用 ZooKeeper 和 gossip, 保 证 配 置 数 据 的 一 致 性 高 可 用 同 时,

要 注 意 的 是,Flume 中 对 事 件 的 处 理 不 需 要 带 状 态, 它 的 Scalability 可 以 很 容 易 实 现 3. Manageability:Flume 利 用 ZooKeeper 和 gossip, 保 证 配 置 数 据 的 一 致 性 高 可 用 同 时, Flume 介 绍 安 装 与 应 用 案 例 本 文 版 权 归 作 者 和 博 客 园 共 有, 欢 迎 转 载, 但 未 经 作 者 同 意 必 须 保 留 此 段 声 明, 且 在 文 章 页 面 明 显 位 置 给 出 原 文 连 接, 博 主 为 石 山 园, 博 客 地 址 为 http://www.cnblogs.com/shishanyuan 该 系 列 课 程 是 应 邀 实 验

More information

使用Spark SQL读取Hive上的数据

使用Spark SQL读取Hive上的数据 使用 Spark SQL 读取 Hive 上的数据 Spark SQL 主要目的是使得用户可以在 Spark 上使用 SQL, 其数据源既可以是 RDD, 也可以是外部的数据源 ( 比如 Parquet Hive Json 等 ) Spark SQL 的其中一个分支就是 Spark on Hive, 也就是使用 Hive 中 HQL 的解析 逻辑执行计划翻译 执行计划优化等逻辑, 可以近似认为仅将物理执行计划从

More information

水晶分析师

水晶分析师 大数据时代的挑战 产品定位 体系架构 功能特点 大数据处理平台 行业大数据应用 IT 基础设施 数据源 Hadoop Yarn 终端 统一管理和监控中心(Deploy,Configure,monitor,Manage) Master Servers TRS CRYSTAL MPP Flat Files Applications&DBs ETL&DI Products 技术指标 1 TRS

More information

MASQUERADE # iptables -t nat -A POSTROUTING -s / o eth0 -j # sysctl net.ipv4.ip_forward=1 # iptables -P FORWARD DROP #

MASQUERADE # iptables -t nat -A POSTROUTING -s / o eth0 -j # sysctl net.ipv4.ip_forward=1 # iptables -P FORWARD DROP # iptables 默认安全规则脚本 一 #nat 路由器 ( 一 ) 允许路由 # iptables -A FORWARD -i eth0 -o eth1 -j ACCEPT ( 二 ) DNAT 与端口转发 1 启用 DNAT 转发 # iptables -t nat -A PREROUTING -p tcp -d 192.168.102.37 dprot 422 -j DNAT to-destination

More information

帝国CMS下在PHP文件中调用数据库类执行SQL语句实例

帝国CMS下在PHP文件中调用数据库类执行SQL语句实例 帝国 CMS 下在 PHP 文件中调用数据库类执行 SQL 语句实例 这篇文章主要介绍了帝国 CMS 下在 PHP 文件中调用数据库类执行 SQL 语句实例, 本文还详细介绍了帝国 CMS 数据库类中的一些常用方法, 需要的朋友可以参考下 例 1: 连接 MYSQL 数据库例子 (a.php)

More information

培 训 机 构 介 绍 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培

培 训 机 构 介 绍  中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培 Hadoop 2.0 培 训 Hadoop 2.0Training Hadoop 2.0 运 维 与 开 发 实 战 培 训 邀 请 函 培 训 机 构 介 绍 www.zkpk.org 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开

More information

Linux 操作系统与程序开发环境 卢脁 Parallel Computing WHY Linux 的安装 系统管理 linux 的基本命令与概念 Linux 操作系统与程序开发环境 Linux Operating System and Programming Environment 卢脁 Depa

Linux 操作系统与程序开发环境 卢脁 Parallel Computing WHY Linux 的安装 系统管理 linux 的基本命令与概念 Linux 操作系统与程序开发环境 Linux Operating System and Programming Environment 卢脁 Depa Linux Operating System and Programming Environment Department of Science and Engineering School of Mathematics School Peking University August 14, 2007 1 2 3 4 框架 1 2 3 4 当前流行的并行计算主要由结点上安装 Linux 操作系统的

More information

2004 Sun Microsystems, Inc Network Circle, Santa Clara, CA U.S.A. Sun Sun Berkeley BSD University of California UNIX X/Open Company, Ltd.

2004 Sun Microsystems, Inc Network Circle, Santa Clara, CA U.S.A. Sun Sun Berkeley BSD University of California UNIX X/Open Company, Ltd. Java Desktop System 2 Sun Microsystems, Inc. 4150 Network Circle Santa Clara, CA 95054 U.S.A. : 817 7758 10 2004 9 2004 Sun Microsystems, Inc. 4150 Network Circle, Santa Clara, CA 95054 U.S.A. Sun Sun

More information

规模数据的机制 Hive 定义了简单的类 SQL 查询语言, 称为 HQL, 它允许熟悉 SQL 的用户查询数据 同时, 这个语言也允许熟悉 MapReduce 开发者的开发自定义的 Mapper 和 Reducer 来处理内建的 Mapper 和 Reducer 无法完成的复杂的分析工作 2.1

规模数据的机制 Hive 定义了简单的类 SQL 查询语言, 称为 HQL, 它允许熟悉 SQL 的用户查询数据 同时, 这个语言也允许熟悉 MapReduce 开发者的开发自定义的 Mapper 和 Reducer 来处理内建的 Mapper 和 Reducer 无法完成的复杂的分析工作 2.1 Hive 介绍和安装部署 本文版权归作者和博客园共有, 欢迎转载, 但未经作者同意必须保留此段声明, 且在文章页面明显位置给出原文连接, 博主为石山园, 博客地址为 http://www.cnblogs.com/shishanyuan 该系列课程是应邀实验楼整理编写的, 这里需要赞一下实验楼提供了学习的新方式, 可以边看博客边上机实验, 课程地址为 https://www.shiyanlou.com/courses/237

More information

Microsoft Word - PS2_linux_guide_cn.doc

Microsoft Word - PS2_linux_guide_cn.doc Linux For $ONY PlayStatioin2 Unofficall General Guide Language: Simplified Chinese First Write By Beter Hans v0.1 Mail: hansb@citiz.net Version: 0.1 本 人 是 菜 鸟 + 小 白 欢 迎 指 正 错 误 之 处, 如 果 您 有 其 他 使 用 心 得

More information

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 odps-sdk 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基 开放数据处理服务 ODPS SDK SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基础功能的主体接口, 搜索关键词 "odpssdk-core" 一些

More information

Chapter #

Chapter # 第三章 TCP/IP 协议栈 本章目标 通过本章的学习, 您应该掌握以下内容 : 掌握 TCP/IP 分层模型 掌握 IP 协议原理 理解 OSI 和 TCP/IP 模型的区别和联系 TCP/IP 介绍 主机 主机 Internet TCP/IP 早期的协议族 全球范围 TCP/IP 协议栈 7 6 5 4 3 应用层表示层会话层传输层网络层 应用层 主机到主机层 Internet 层 2 1 数据链路层

More information

工银瑞信货币市场证券投资基金2008年度第2季度报告

工银瑞信货币市场证券投资基金2008年度第2季度报告 2016 年 6 月 30 日 基 金 管 理 人 : 华 富 基 金 管 理 有 限 公 司 基 金 托 管 人 : 中 国 建 设 银 行 股 份 有 限 公 司 报 告 送 出 日 期 :2016 年 7 月 21 日 1 重 要 提 示 基 金 管 理 人 的 董 事 会 及 董 事 保 证 本 报 告 所 载 资 料 不 存 在 虚 假 记 载 误 导 性 陈 述 或 重 大 遗 漏, 并

More information

腰部酸痛保健法

腰部酸痛保健法 識 臨 都 老 年 勞 不 不 理 不 便 了 療 離 狀 力 力 易 拉 狀 勞 裂 類 老 年 刺 滑 不 良 六 尿 列 類 說 裂 神 神 見 勞 滑 不 烈 兩 來 暴 力 勞 裂 刺 神 神 狀 見 勞 見 臨 度 降 年 連 都 類 淋 刺 刺 不 勞 易 老 不 不 若 神 神 行 力 不 良 了 不 良 立 年 女 老 年 度 度 度 勞 見 老

More information

Microsoft Word - AccessPortal使用手册v3.1.doc

Microsoft Word - AccessPortal使用手册v3.1.doc HighGuard Access Portal 使用手册 地址 : 上海市张江高科技园区松涛路 563 号海外创新园 B 座 301-302 室 电话 : 021-50806229 传真 : 021-50808180 电子邮件 : marketing@highguard.com.cn 第 1 页共 24 页 目录 1. ACCESSPORTAL 概述...4 1.1. AccessPortal 主页面

More information

开源软件DSpace的安装和维护(清华_邹荣).ppt

开源软件DSpace的安装和维护(清华_邹荣).ppt 开源软件 DSpace 的安装和维护 清华大学图书馆邹荣 2009 年 9 月 DSpace 的安装 dspace-1.5.2 硬件平台主流 PC 服务器或 UNIX/Linux 服务器, 具体配置可以根据数据规模 保存 备份 性能等方面需求配置 操作系统 UNIX-like OS (Linux, HP/UX etc) Microsoft Windows ( 本馆采用的操作系统是 Linux centos

More information

DPark MapReduce (Davies) davies@douban.com 2011/12/07 Velocity China 2011 Douban Douban 5500 Douban 5500 1000G, Douban 5500 1000G, 60+ Douban 5500 1000G, 60+ 200+ Douban 5500 1000G, 60+ 200+ > MooseFS

More information

jdbc:hsqldb:hsql: jdbc:hsqldb:hsqls: jdbc:hsqldb:http: jdbc:hsqldb:https: //localhost //192.0.0.10:9500 / /dbserver.somedomain.com /an_alias /enrollme

jdbc:hsqldb:hsql: jdbc:hsqldb:hsqls: jdbc:hsqldb:http: jdbc:hsqldb:https: //localhost //192.0.0.10:9500 / /dbserver.somedomain.com /an_alias /enrollme sh -x path/to/hsqldb start > /tmp/hstart.log 2>&1 第 4 章 高 级 话 题 4.1 本 章 目 的 许 多 在 论 坛 或 邮 件 组 中 重 复 出 现 的 问 题 将 会 在 本 文 档 中 进 行 解 答 如 果 你 打 算 在 应 用 程 序 中 使 用 HSQLDB 的 话, 那 么 你 应 该 好 好 阅 读 一 下 本 文 章 本 章

More information

0 配置 Host MIB 设备 V ( 简体版 ) 0 Update: 2016/1/30

0 配置 Host MIB 设备 V ( 简体版 ) 0 Update: 2016/1/30 0 配置 Host MIB 设备 V 1.1.2 ( 简体版 ) 0 Update: 2016/1/30 前言 N-Reporter 支持 Host Resource MIB 监控主机 (Host) 状态, 本文件描述 N-Reporter 用户如何配置 Host MIB 设备 文件章节如下 : 1. 配置 Windows Server 2003... 2 1-1.Windows Server 2003

More information

一 登录 crm Mobile 系统 : 输入 ShijiCare 用户名和密码, 登录系统, 如图所示 : 第 2 页共 32 页

一 登录 crm Mobile 系统 : 输入 ShijiCare 用户名和密码, 登录系统, 如图所示 : 第 2 页共 32 页 第 1 页共 32 页 crm Mobile V1.0 for IOS 用户手册 一 登录 crm Mobile 系统 : 输入 ShijiCare 用户名和密码, 登录系统, 如图所示 : 第 2 页共 32 页 二 crm Mobile 界面介绍 : 第 3 页共 32 页 三 新建 (New) 功能使用说明 1 选择产品 第 4 页共 32 页 2 填写问题的简要描述和详细描述 第 5 页共

More information

lect03.ppt

lect03.ppt Linux 操 作 系 统 Linux 基 础 主 要 内 容 q 使 用 Linux q Linux 的 两 种 登 录 方 式 q 字 符 操 作 环 境 和 X Windows 系 统 q Linux 图 形 界 面 基 本 操 作 q Linux 命 令 的 使 用 方 式 q Linux 一 些 常 用 命 令 1 2 一 些 基 本 术 语 u 命 令 (Command) 给 计 算 机

More information

Parallel Computing WHY Linux 的安装系统管理 linux 的基本命令与概念 Linux 操作系统与程序开发环境 Linux 操作系统与程序开发环境 卢脁 Parallel Computing Linux 操作系统与程序开发环境 卢脁 Linux Operating Sys

Parallel Computing WHY Linux 的安装系统管理 linux 的基本命令与概念 Linux 操作系统与程序开发环境 Linux 操作系统与程序开发环境 卢脁 Parallel Computing Linux 操作系统与程序开发环境 卢脁 Linux Operating Sys Linux Operating System and Programming Environment 1 Department of Science and Engineering School of Mathematics School Peking University 2 3 August 14, 2007 4 当前流行的并行计算主要由结点上安装 Linux 操作系统的 PC cluster

More information

目标还包括 : 建立一个用户和贡献者社区, 使代码不必依赖于特定贡献者的参与或任何特定公司和大学的资金 专注于实际用例, 这与高新技术研究及未经验证的技巧相反 提供高质量文章和示例 3 搭建 Mahout 环境 3.1 部署过程 下载 Mahout 在 Apache 下载最新的 Maho

目标还包括 : 建立一个用户和贡献者社区, 使代码不必依赖于特定贡献者的参与或任何特定公司和大学的资金 专注于实际用例, 这与高新技术研究及未经验证的技巧相反 提供高质量文章和示例 3 搭建 Mahout 环境 3.1 部署过程 下载 Mahout 在 Apache 下载最新的 Maho Mahout 介绍 安装与应用案例 本文版权归作者和博客园共有, 欢迎转载, 但未经作者同意必须保留此段声明, 且在文章页面明显位置给出原文连接, 博主为石山园, 博客地址为 http://www.cnblogs.com/shishanyuan 该系列课程是应邀实验楼整理编写的, 这里需要赞一下实验楼提供了学习的新方式, 可以边看博客边上机实验, 课程地址为 https://www.shiyanlou.com/courses/237

More information

投影片 1

投影片 1 類 Linux BASH shell (, VBird) 2008/03/29 Linux 1 Bash Shell 令 vi vim 料流 令 / 令 理 (job control) 例 2008/03/29 Linux 2 Bash shell 2008/03/29 Linux 3 什 Shell Shell shell 2008/03/29 Linux 4 什 Shell Linux shell

More information

业 务 与 运 营 Business & Operation (Transform) 加 载 (Load) 至 目 的 端 的 过 程, 该 部 分 在 数 据 挖 掘 和 分 析 过 程 中 为 最 基 础 的 一 部 分 一 个 良 好 的 ETL 系 统 应 该 有 以 下 几 个 功 能 1

业 务 与 运 营 Business & Operation (Transform) 加 载 (Load) 至 目 的 端 的 过 程, 该 部 分 在 数 据 挖 掘 和 分 析 过 程 中 为 最 基 础 的 一 部 分 一 个 良 好 的 ETL 系 统 应 该 有 以 下 几 个 功 能 1 Business & Operation 业 务 与 运 营 大 数 据 技 术 在 精 准 营 销 中 的 应 用 王 小 鹏 北 京 东 方 国 信 科 技 股 份 有 限 公 司 北 京 100102 摘 要 简 要 介 绍 主 流 的 大 数 据 技 术 架 构 和 大 数 据 挖 掘 技 术 ; 阐 述 大 数 据 技 术 在 精 准 营 销 与 维 系 系 统 建 设 中 的 应 用,

More information

白 皮 书 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 目 录 要 点 概 述...1 业 务 挑 战...2 Hadoop* 分 发 版 注 意 事 项...3 Hadoop* 基 础 架 构 注 意 事 项

白 皮 书 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 目 录 要 点 概 述...1 业 务 挑 战...2 Hadoop* 分 发 版 注 意 事 项...3 Hadoop* 基 础 架 构 注 意 事 项 IT@Intel 白 皮 书 英 特 尔 IT 部 门 大 数 据 和 商 业 智 能 2013 年 10 月 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 要 点 概 述 仅 在 五 周 之 内, 我 们 就 实 施 了 基 于 Apache Hadoop* 英 特 尔 分 发 版 的 低 成 本 可 完 全 实 现 的 大 数

More information

目 录(目录名)

目  录(目录名) 目录 目录...1-1 1.1 域名解析配置命令... 1-1 1.1.1 display dns domain... 1-1 1.1.2 display dns dynamic-host... 1-1 1.1.3 display dns server... 1-2 1.1.4 display ip host... 1-3 1.1.5 dns domain... 1-4 1.1.6 dns resolve...

More information

.. 3 N

.. 3 N 1 .. 3 N9.. 4 5.. 6 7.. 8 20.. 21 23.. 24.. 25 26.. 27.. 28.. 29 2 (Cyber Café) Linux (LAN) Linux Public Home 3 K12LTSP K12LTSPFedora Core 4 (Linux)LTSP Linux (command line interface) (Graphical User Interface,

More information

ebook70-5

ebook70-5 5 / 5.1 L i n u x L i n u x X L i n u x 5.1.1 touch t o u c h t o u c h G N U t o u c h # touch newfile # ls -l newfile - r w - r - - r - - 1 bball users 0 Jan 5 12 : 40 n e w f i l e t o u c h 0 # > newfile2

More information

第 06 期 李祥池 : 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 1 日志 1.1 日志定义 IT 1.2 日志处理方案演进 v1.0 v2.0 Hadoop Storm Spark Hadoop/Storm/Spark v3.0 TB Splunk ELK SI

第 06 期 李祥池 : 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 1 日志 1.1 日志定义 IT 1.2 日志处理方案演进 v1.0 v2.0 Hadoop Storm Spark Hadoop/Storm/Spark v3.0 TB Splunk ELK SI 电子科学技术第 02 卷第 06 期 2015 年 11 月 Electronic Science & Technology Vol.02 No.06 Nov.2015 年 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 李祥池 ( 杭州华三通信技术有限公司北京研究所, 北京,100085) 摘要 : 在大数据时代 对数据平台各组件的运行状态实时监控与运行分析具有重要意义

More information

投影片 1

投影片 1 FreeBSD A 95/10/11 19:00~21:00 95/10/11 FreeBSD 練 1 Services Setup SSH, lighttpd, PHP, MySQL, FTP, Postfix, phpmyadmin, Blog, Gallery 95/10/11 FreeBSD 練 2 1. 2. # FreeBSD # 3. vi ee joe nano etc 95/10/11

More information

Abstract arm linux tool-chain root NET-Start! 2

Abstract arm linux tool-chain root NET-Start! 2 Lab III - Embedding Linux 1 Abstract arm linux tool-chain root NET-Start! 2 Part 1.4 Step1. tool-chain 4 Step2. PATH 4 Part 2 kernel 5 Step1. 5 Step2... 6 Step3...8 Part 3 root. 8 Step1. 8 Step2. 8 Part

More information

本文由筱驀釹贡献

本文由筱驀釹贡献 本 文 由 筱 驀 釹 贡 献 ppt 文 档 可 能 在 WAP 端 浏 览 体 验 不 佳 建 议 您 优 先 选 择 TXT, 或 下 载 源 文 件 到 本 机 查 看 Linux 操 作 系 统 Linux 操 作 系 统 第 一 部 分 介 绍 与 安 装 Linux 的 由 来 : Linux 的 由 来 : 的 由 来 Linus Torvalds 1.Linux 的 版 本 1.Linux

More information

Linux Ubuntu Part Linux Ubuntu Linux UNIX...19 Linux...19 Linux Linux...21 Linux GNU FSF Open So urce.

Linux Ubuntu Part Linux Ubuntu Linux UNIX...19 Linux...19 Linux Linux...21 Linux GNU FSF Open So urce. Linux Ubuntu 10.04 Part 1 17 1 Linux Ubuntu... 18 1-1 Linux... 19 UNIX...19 Linux...19 Linux...20...20 Linux...21 Linux...21 1-2 GNU FSF Open So urce...22 GNU...22 GPL...23...24 1-3 GNU/Linux V.S. Linux...25

More information

大数据技术原理与应用

大数据技术原理与应用 厦门大学研究生课程 大数据处理技术 Spark http://dblab.xmu.edu.cn/post/7659/ 温馨提示 : 编辑幻灯片母版, 可以修改每页 PPT 的厦大校徽和底部文字 第 4 章 Spark 安装和使用方法 (PPT 版本号 :2017 年春季学期 ) 林子雨厦门大学计算机科学系 扫一扫访问班级主页 E-mail: ziyulin@xmu.edu.cn 主页 :http://www.cs.xmu.edu.cn/linziyu

More information

计算机网络实验说明

计算机网络实验说明 计算机网络实验说明 龚旭东 电三楼 420 lzgxd@mailustceducn 2011 年 11 月 1 日 龚旭东 (TA) 计算机网络实验说明 2011 年 11 月 1 日 1 / 20 Outline 1 实验系统介绍 实验环境实验流程 2 实验内容编程实验交互实验观察实验 3 一些控制台命令 4 实验报告说明 龚旭东 (TA) 计算机网络实验说明 2011 年 11 月 1 日 2

More information

javascript sdk javascript sdk 列出 Bucket 内的对象上传 textarea 内容到 Bucket 上传本地文件生成私有下载链接生成带过期时间的私有链接删除对象下载对象拷贝对象查看文件访问权限设置文件访问权限获取静态网站配置设置静态网站删除静态网站查询对象元数据查询

javascript sdk javascript sdk 列出 Bucket 内的对象上传 textarea 内容到 Bucket 上传本地文件生成私有下载链接生成带过期时间的私有链接删除对象下载对象拷贝对象查看文件访问权限设置文件访问权限获取静态网站配置设置静态网站删除静态网站查询对象元数据查询 javascript sdk javascript sdk 列出 Bucket 内的对象上传 textarea 内容到 Bucket 上传本地文件生成私有下载链接生成带过期时间的私有链接删除对象下载对象拷贝对象查看文件访问权限设置文件访问权限获取静态网站配置设置静态网站删除静态网站查询对象元数据查询桶的多版本 Bucket 开启对象多版本支持挂起 Bucket 的多版本对象功能浏览器客户端浏览器客户端的

More information

Hadoop 2.2.0安装和配置lzo

Hadoop 2.2.0安装和配置lzo Hadoop 2.2.0 安装和配置 lzo Hadoop 经常用于处理大量的数据, 如果期间的输出数据 中间数据能压缩存储, 对系统的 I/ O 性能会有提升 综合考虑压缩 解压速度 是否支持 split, 目前 lzo 是最好的选择 LZO(LZO 是 Lempel-Ziv-Oberhumer 的缩写 ) 是一种高压缩比和解压速度极快的编码, 它的特点是解压缩速度非常快, 无损压缩, 压缩后的数据能准确还原,lzo

More information

校友会系统白皮书feb_08

校友会系统白皮书feb_08 硕 士 研 究 生 招 生 管 理 系 统 1 产 品 白 皮 书 希 尔 数 字 校 园 硕 士 研 究 生 招 生 管 理 系 统 白 皮 书 目 录 1 产 品 概 述... 1 1.1 产 品 简 介... 1 1.2 应 用 范 围... 1 2 产 品 功 能 结 构 图... 2 3 产 品 功 能... 3 3.1 系 统 设 置... 3 3.2 信 息 发 布... 3 3.3

More information

ebook62-1

ebook62-1 1 Red Hat Linux R e d Hat Linux L i n u x X Wi n d o w Red Hat L i n u x 1.1 Red Hat Linux Red Hat 16 M 120 M 3. 5 Intel 386 C D - R O M C D - R O M We b / 1.1.1 L i n u x L i n u 4 Primary Partition Extended

More information

内 容 提 要 将 JAVA 开 发 环 境 迁 移 到 Linux 系 统 上 是 现 在 很 多 公 司 的 现 实 想 法, 而 在 Linux 上 配 置 JAVA 开 发 环 境 是 步 入 Linux 下 JAVA 程 序 开 发 的 第 一 步, 本 文 图 文 并 茂 地 全 程 指

内 容 提 要 将 JAVA 开 发 环 境 迁 移 到 Linux 系 统 上 是 现 在 很 多 公 司 的 现 实 想 法, 而 在 Linux 上 配 置 JAVA 开 发 环 境 是 步 入 Linux 下 JAVA 程 序 开 发 的 第 一 步, 本 文 图 文 并 茂 地 全 程 指 内 容 提 要 将 JAVA 开 发 环 境 迁 移 到 Linux 系 统 上 是 现 在 很 多 公 司 的 现 实 想 法, 而 在 Linux 上 配 置 JAVA 开 发 环 境 是 步 入 Linux 下 JAVA 程 序 开 发 的 第 一 步, 本 文 图 文 并 茂 地 全 程 指 导 你 搭 建 Linux 平 台 下 的 JAVA 开 发 环 境, 包 括 JDK 以 及 集

More information

手册 doc

手册 doc 1. 2. 3. 3.1 3.2 3.3 SD 3.4 3.5 SD 3.6 3.7 4. 4.1 4.2 4.3 SD 4.4 5. 5.1 5.2 5.3 SD 6. 1. 1~3 ( ) 320x240~704x288 66 (2G SD 320x2401FPS ) 32M~2G SD SD SD SD 24V DC 3W( ) -10~70 10~90% 154x44x144mm 2. DVR106

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 基于 Alluxio 提升 Spark 和 Hadoop HDFS 的系统性能与稳定性 顾荣博士南京大学计算机系助理研究员, Alluxio 项目 PMC, Maintainer 2017/03/25@China Hadoop Summit 2017( 北京 ) 内容 Alluxio 基本原理回顾与 1.4 的最新特性介绍 基于 Alluxio 的 Spark DataFrame/RDD 性能调优

More information

校验功能 后台的连续自检数据一致性功能都为高容错提供了可能 线性扩展 : 因为 HDFS 的 Block 信息存放到 NameNode 上, 文件的 Block 分布到 DataNode 上, 当扩充的时候仅仅添加 DataNode 数量, 系统可以在不停止服务的情况下做扩充, 不需要人工干预 2.

校验功能 后台的连续自检数据一致性功能都为高容错提供了可能 线性扩展 : 因为 HDFS 的 Block 信息存放到 NameNode 上, 文件的 Block 分布到 DataNode 上, 当扩充的时候仅仅添加 DataNode 数量, 系统可以在不停止服务的情况下做扩充, 不需要人工干预 2. HDFS 原理及操作 本文版权归作者和博客园共有, 欢迎转载, 但未经作者同意必须保留此段声明, 且在文章页面明显位置给出原文连接, 博主为石山园, 博客地址为 http://www.cnblogs.com/shishanyuan 该系列课程是应邀实验楼整理编写的, 这里需要赞一下实验楼提供了学习的新方式, 可以边看博客边上机实验, 课程地址为 https://www.shiyanlou.com/courses/237

More information

BPS 6.6 手工部署指南 (JBoss4) 手工部署 BPS( 单机 ) 手工部署包支持的 jboss 版本有 jboss ga 和 jboss ga 示例中的 jboss 版本为 jboss ga, 操作系统为 Solaris(IP:

BPS 6.6 手工部署指南 (JBoss4) 手工部署 BPS( 单机 ) 手工部署包支持的 jboss 版本有 jboss ga 和 jboss ga 示例中的 jboss 版本为 jboss ga, 操作系统为 Solaris(IP: BPS 6.6 手工部署指南 (JBoss4) 手工部署 BPS( 单机 ) 手工部署包支持的 jboss 版本有 jboss-4.0.5.ga 和 jboss-5.1.0.ga 示例中的 jboss 版本为 jboss-4.0.5.ga, 操作系统为 Solaris(IP:192.168.2.179), 进行手工配置前需要准备好干净的 jboss 环境 1. 获取部署文件 从 BPS_6.6_Deploy_Package.zip

More information

ebook 185-6

ebook 185-6 6 Red Hat Linux DB2 Universal Database 6.1 D B 2 Red Hat D B 2 Control Center D B 2 D B 2 D B 2 6.1 DB2 Universal Database [DB2]6.1 D B 2 O LT P O L A P D B 2 I B M P C We e k D B 2 D B 2 L i n u x Windows

More information

res/layout 目录下的 main.xml 源码 : <?xml version="1.0" encoding="utf 8"?> <TabHost android:layout_height="fill_parent" xml

res/layout 目录下的 main.xml 源码 : <?xml version=1.0 encoding=utf 8?> <TabHost android:layout_height=fill_parent xml 拓展训练 1- 界面布局 1. 界面布局的重要性做应用程序, 界面是最基本的 Andorid 的界面, 需要写在 res/layout 的 xml 里面, 一般情况下一个 xml 对应一个界面 Android 界面布局有点像写 html( 连注释代码的方式都一样 ), 要先给 Android 定框架, 然后再在框架里面放控件,Android 提供了几种框架,AbsoluteLayout,LinearLayout,

More information

A9RF716.tmp

A9RF716.tmp 1 PART I 1 2 3 4 5 6 7 8 Docker Docker Image Container Repository Docker le Docker Docker 8 1 Docker Linux 2 Docker Docker 3 5 Docker 6 Docker volume 7 8 Docker le Docker le 1 C H A P T E R 1 CPU Data

More information

目录 一 安装配置步骤 虚拟机的准备工作 安装和配置 JDK 环境 配置 SSH 免密码登录 编辑 etc/hosts 文件 配置 hadoop 将 master 上的 Hadoop 安装包拷

目录 一 安装配置步骤 虚拟机的准备工作 安装和配置 JDK 环境 配置 SSH 免密码登录 编辑 etc/hosts 文件 配置 hadoop 将 master 上的 Hadoop 安装包拷 hadoop 集群部署 ( 部署 ) 目录 一 安装配置步骤... 3 1.1 虚拟机的准备工作... 3 1.2 安装和配置 JDK 环境... 3 1.3 配置 SSH 免密码登录... 4 1.4 编辑 etc/hosts 文件... 6 1.5 配置 hadoop... 7 1.6 将 master 上的 Hadoop 安装包拷贝到数据节点上... 9 1.7 编辑 master 主机的 etc/profile

More information

Microsoft Word - 第5章.doc

Microsoft Word - 第5章.doc 目 录 及 权 限 管 理 随 着 的 不 断 发 展, 越 来 越 多 的 人 开 始 使 用, 对 于 那 些 刚 接 触 的 人 来 说, 恐 怕 最 先 感 到 困 惑 的 就 是 那 些 不 明 不 白 的 目 录 了 同 样, 系 统 是 一 个 典 型 的 多 用 户 系 统 为 了 保 护 系 统 的 安 全 性, 系 统 对 不 同 用 户 访 问 同 一 文 件 或 目 录 的

More information

W. Richard Stevens UNIX Sockets API echo Sockets TCP OOB IO C struct C/C++ UNIX fork() select(2)/poll(2)/epoll(4) IO IO CPU 100% libevent UNIX CPU IO

W. Richard Stevens UNIX Sockets API echo Sockets TCP OOB IO C struct C/C++ UNIX fork() select(2)/poll(2)/epoll(4) IO IO CPU 100% libevent UNIX CPU IO Linux muduo C++ (giantchen@gmail.com) 2012-09-30 C++ TCP C++ x86-64 Linux TCP one loop per thread Linux native muduo C++ IT 5 C++ muduo 2 C++ C++ Primer 4 W. Richard Stevens UNIX Sockets API echo Sockets

More information

第一章 Linux與網路資源

第一章 Linux與網路資源 1 28 Proxy Server 28-1 Proxy proxy Server rpm qa grep squid Linux Proxy Proxy Proxy Proxy Proxy Request Proxy Proxy Proxy RedHat Linux Fedora #mount /mnt/cdrom squid squid Proxy #cd /mnt/cdrom/redhat/rpms

More information

Symantec™ Sygate Enterprise Protection 防护代理安装使用指南

Symantec™ Sygate Enterprise Protection 防护代理安装使用指南 Symantec Sygate Enterprise Protection 防 护 代 理 安 装 使 用 指 南 5.1 版 版 权 信 息 Copyright 2005 Symantec Corporation. 2005 年 Symantec Corporation 版 权 所 有 All rights reserved. 保 留 所 有 权 利 Symantec Symantec 徽 标 Sygate

More information

项目编号 TeamDR1.0 课题数据宝本地部署版安 装手册 中国科学院计算机网络信息中心 科学数据中心数据技术组 2015 年 8 月

项目编号 TeamDR1.0 课题数据宝本地部署版安 装手册 中国科学院计算机网络信息中心 科学数据中心数据技术组 2015 年 8 月 项目编号 TeamDR1.0 课题数据宝本地部署版安 装手册 科学数据中心数据技术组 2015 年 8 月 目录 课题数据宝本地部署版安装手册... 1 一 安装环境... 3 二 环境配置... 3 1. Mongodb 安装与配置... 3 1.1 Mongodb 下载... 3 1.2 Windows 系统下安装配置... 3 1.3 Linux 系统下安装配置... 5 2. Java 环境配置...

More information

三种恢复 HDFS 上删除文件的方法

三种恢复 HDFS 上删除文件的方法 三种恢复 HDFS 上删除文件的方法 我们每天都可能会操作 HDFS 上的文件, 这就很难避免误操作, 比如比较严重的误操作就是删除文件 本文针对这个问题提供了三种恢复误删除文件的方法, 希望对大家的日常运维有所帮助 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 通过垃圾箱恢复 HDFS 为我们提供了垃圾箱的功能, 也就是当我们执行

More information

Microsoft Word zw

Microsoft Word zw 第 1 章 Android 概述 学习目标 : Android Android Android Studio Android Android APK 1.1 1. 智能手机的定义 Smartphone 2. 智能手机的发展 1973 4 3 PC IBM 1994 IBM Simon PDA PDA Zaurus OS 1996 Nokia 9000 Communicator Nokia 9000

More information

通过Hive将数据写入到ElasticSearch

通过Hive将数据写入到ElasticSearch 我在 使用 Hive 读取 ElasticSearch 中的数据 文章中介绍了如何使用 Hive 读取 ElasticSearch 中的数据, 本文将接着上文继续介绍如何使用 Hive 将数据写入到 ElasticSearch 中 在使用前同样需要加入 elasticsearch-hadoop-2.3.4.jar 依赖, 具体请参见前文介绍 我们先在 Hive 里面建个名为 iteblog 的表,

More information

1 1 大概思路 创建 WebAPI 创建 CrossMainController 并编写 Nuget 安装 microsoft.aspnet.webapi.cors 跨域设置路由 编写 Jquery EasyUI 界面 运行效果 2 创建 WebAPI 创建 WebAPI, 新建 -> 项目 ->

1 1 大概思路 创建 WebAPI 创建 CrossMainController 并编写 Nuget 安装 microsoft.aspnet.webapi.cors 跨域设置路由 编写 Jquery EasyUI 界面 运行效果 2 创建 WebAPI 创建 WebAPI, 新建 -> 项目 -> 目录 1 大概思路... 1 2 创建 WebAPI... 1 3 创建 CrossMainController 并编写... 1 4 Nuget 安装 microsoft.aspnet.webapi.cors... 4 5 跨域设置路由... 4 6 编写 Jquery EasyUI 界面... 5 7 运行效果... 7 8 总结... 7 1 1 大概思路 创建 WebAPI 创建 CrossMainController

More information

Sun Fire V440 Server Administration Guide - zh_TW

Sun Fire V440 Server Administration Guide - zh_TW Sun Fire V440 Server 管 理 指 南 Sun Microsystems, Inc. 4150 Network Circle Santa Clara, CA 95054 U.S.A. 650-960-1300 文 件 號 碼 :817-2818-10 2003 年 7 月, 修 訂 版 A 將 您 對 此 文 件 的 意 見 傳 送 到 :http://www.sun.com/hwdocs/feedback

More information

资源管理软件TORQUE与作业调度软件Maui的安装、设置及使用

资源管理软件TORQUE与作业调度软件Maui的安装、设置及使用 TORQUE Maui hmli@ustc.edu.cn 2008 1 1 TORQUE 2 1.1 TORQUE........................... 2 1.2 TORQUE...................... 2 1.3 TORQUE.......................... 4 1.4 TORQUE........................... 4

More information

使用MapReduce读取XML文件

使用MapReduce读取XML文件 使用 MapReduce 读取 XML 文件 XML( 可扩展标记语言, 英语 :extensible Markup Language, 简称 : XML) 是一种标记语言, 也是行业标准数据交换交换格式, 它很适合在系统之间进行数据存储和交换 ( 话说 Hadoop H ive 等的配置文件就是 XML 格式的 ) 本文将介绍如何使用 MapReduce 来读取 XML 文件 但是 Had oop

More information

Microsoft Word - 100118002.htm

Microsoft Word - 100118002.htm 100 年 度 11800 電 腦 軟 體 應 用 乙 級 技 術 士 技 能 檢 定 學 科 測 試 試 題 本 試 卷 有 選 擇 題 80 題, 每 題 1.25 分, 皆 為 單 選 選 擇 題, 測 試 時 間 為 100 分 鐘, 請 在 答 案 卡 上 作 答, 答 錯 不 倒 扣 ; 未 作 答 者, 不 予 計 分 准 考 證 號 碼 : 姓 名 : 選 擇 題 : 1. (3)

More information

Basic System Administration

Basic System Administration 基 本 系 统 管 理 ESX Server 3.5 ESX Server 3i 版 本 3.5 Virtual Center 2.5 基 本 管 理 指 南 基 本 管 理 指 南 修 订 时 间 :20080410 项 目 :VI-CHS-Q208-490 我 们 的 网 站 提 供 最 新 的 技 术 文 档, 网 址 为 : http://www.vmware.com/cn/support/

More information

目录 1 安装 INTELLIJ IDEA 安装软件 下载 IDEA 安装文件 解压缩并移动目录 配置 /etc/profile 环境变量 配置 SCALA 环境 启动 Int

目录 1 安装 INTELLIJ IDEA 安装软件 下载 IDEA 安装文件 解压缩并移动目录 配置 /etc/profile 环境变量 配置 SCALA 环境 启动 Int Spark 编程模型 ( 下 ) --IDEA 搭建及开发 第 1 页共 18 页 目录 1 安装 INTELLIJ IDEA... 3 1.1 安装软件... 3 1.1.1 下载 IDEA 安装文件... 3 1.1.2 解压缩并移动目录... 4 1.1.3 配置 /etc/profile 环境变量... 4 1.2 配置 SCALA 环境... 5 1.2.1 启动 IntelliJ IDEA...

More information

ssh-keygen -t rsa

ssh-keygen -t rsa 虚拟并行运算环境 mpi 的配置简介科研菜鸟 v2.0 http://blog.sciencenet.cn/u/sanshiphy 问题 : 有一台电脑,1 cpu, 超线程 8 核, 已安装 Ubuntu 系统 现配置两台虚拟机, 每台虚拟机 1cpu,3 核, 两台虚拟机均安装 Ubuntu server 系统, 并实现 mpi 并行运算 思路 : 利用 vmware 构造虚拟机, 利用 ssh

More information

EMC® VNX® Series VNX8000™ Block 安装指南

EMC® VNX® Series VNX8000™ Block 安装指南 EMC VNX Series VNX8000 Block 安 装 指 南 300-999-791 REV 05 版 权 所 有 2014-2015 EMC Corporation 保 留 所 有 权 利 中 国 印 刷 发 布 日 期 : 2015 年 2 月 EMC 确 信 本 出 版 物 在 发 布 之 日 内 容 准 确 无 误 本 出 版 物 中 的 信 息 可 随 时 更 改 而 不 另

More information

未命名 -1

未命名 -1 BV8188M 使 用 说 明 INSTRUCTIONS 使 用 之 前 请 仔 细 阅 读 此 手 册 Please read before using this manual 深 圳 市 碧 维 视 科 技 有 限 公 司 2013 年 碧 维 视 印 刷, 版 权 所 有, 翻 版 必 究, 本 手 册 内 所 有 图 文, 未 经 授 权, 严 谨 与 任 何 方 式 之 全 面 或 部 分

More information

深圳市亚可信息技术有限公司 NetWeaver 7.3 EhP1 ABAP on Redhat Enterprise Linux Server 62 for Oracle112 High Availability System Installation Created by

深圳市亚可信息技术有限公司 NetWeaver 7.3 EhP1 ABAP on Redhat Enterprise Linux Server 62 for Oracle112 High Availability System Installation Created by NetWeaver 7.3 EhP1 ABAP on Redhat Enterprise Linux Server 62 for Oracle112 High Availability System Installation Created by 13092539@qq.com 1. 安装规划 Parameter Host A Host B Host C For ASCS Database Dialog

More information

untitled

untitled BEA WebLogic Server WebLogic Server WebLogic Server Domain Administration Server Managed Server 行 說 Domains Domain Server 1 Server 2 Cluster Server 4 Server 3 Machine A Machine B Machine A 1. Domain Domain

More information

A Preliminary Implementation of Linux Kernel Virus and Process Hiding

A Preliminary Implementation of Linux Kernel Virus and Process Hiding 邵 俊 儒 翁 健 吉 妍 年 月 日 学 号 学 号 学 号 摘 要 结 合 课 堂 知 识 我 们 设 计 了 一 个 内 核 病 毒 该 病 毒 同 时 具 有 木 马 的 自 动 性 的 隐 蔽 性 和 蠕 虫 的 感 染 能 力 该 病 毒 获 得 权 限 后 会 自 动 将 自 身 加 入 内 核 模 块 中 劫 持 的 系 统 调 用 并 通 过 简 单 的 方 法 实 现 自 身 的

More information

ebook35-2

ebook35-2 2 2.1 Linux login Login: < > Password: < > Linux r o o t l o g o u t 2.2 Linux X Window Linux Linux Bourne ( b s h ) C ( c s h ) Korn ( k s h ) Bourne Steven Bourne UNIX Bourne bash Bourne C Bill Joy Bourne

More information

一 Grass 是 什 么 1 简 介 GRASS (Geographic Resources Analysis Support System, 地 理 资 源 分 析 支 持 系 统 ) 是 最 负 盛 名 的 开 源 地 理 信 息 系 统 (GIS) 以 下 是 它 的 一 些 特 点 : 1

一 Grass 是 什 么 1 简 介 GRASS (Geographic Resources Analysis Support System, 地 理 资 源 分 析 支 持 系 统 ) 是 最 负 盛 名 的 开 源 地 理 信 息 系 统 (GIS) 以 下 是 它 的 一 些 特 点 : 1 GRASS 中 文 教 程 作 者 : 广 东 省 东 莞 市 长 安 中 学 文 合 平 E_mail: wenheping@gmail.com 2007 年 9 月 1 一 Grass 是 什 么 1 简 介 GRASS (Geographic Resources Analysis Support System, 地 理 资 源 分 析 支 持 系 统 ) 是 最 负 盛 名 的 开 源 地 理

More information

1.JasperReport ireport JasperReport ireport JDK JDK JDK JDK ant ant...6

1.JasperReport ireport JasperReport ireport JDK JDK JDK JDK ant ant...6 www.brainysoft.net 1.JasperReport ireport...4 1.1 JasperReport...4 1.2 ireport...4 2....4 2.1 JDK...4 2.1.1 JDK...4 2.1.2 JDK...5 2.1.3 JDK...5 2.2 ant...6 2.2.1 ant...6 2.2.2 ant...6 2.3 JasperReport...7

More information