Hadoop 手册

Size: px
Start display at page:

Download "Hadoop 手册"

Transcription

1 Hadoop 手册 数据服务中心 - 大数据应用 海南易建科技股份有限公司 李景帆整理

2 Hadoop 手册... 错误! 未定义书签 1. 大数据理论 Hadoop 的背景及知识体系 Hadoop 集群的安装 Hadoop 集群的系统及软件版本 安装 Hadoop 集群前的准备 网络配置 配置 hosts 文件 配置 SSH 无密码验证 Java 环境安装 Hadoop 的安装 Hadoop 的基础配置 启动及验证 HBase 集群的安装 大数据理论 大数据是什么?IBM 在 2012 年中期对 95 个国家中 26 个行业的 1144 名专业人员的进行 的 Big Data 研究 受访者来自多个学科, 包括业务专业人员 ( 占总样本的 54%) 和 IT 专业人 员 ( 占总样本的 46%) 受访者对大数据的理解如下图描述 : 这些结果与确定大数据的三个维度的有用方式相一致 即 3V : 数量 (volume) 多样性 (variety) 和速度 (velocity) 尽管这些涵盖大数据本身的关键属性, 但 IBM 认为, 企业需要考虑一个重要的第四维度 : 精确性 (veracity) 将精确性作为大数据的第四个属性凸显了应对与管理某些类型数据中固有的不确定性的重要性

3 在国内业内讨论中认为, 精确性和价值 (value) 相关, 而价值 (value) 的产生才是大数据体系存在的意义 涵盖这四个维度有助于定义和区分大数据 : 数量 : 数据量 数量也许是与大数据最相关的特征, 指企业为了改进企业中的决策而试图利用的大量数据 数据量持续以前所未有的速度增加 多样性 : 不同类型的数据和数据源 多样性是指管理多种数据类型的复杂性, 包括结构化 半结构化和非结构化数据 企业需要整合并分析来自复杂的传统和非传统信息源的数据, 包括企业内部和外部的数据 随着传感器 智能设备和社会协同技术的爆炸性增长, 数据的类型无以计数, 包括 : 文本 微博 传感器数据 音频 视频 点击流 日志文件等 速度 : 数据在运动中 数据创建 处理和分析的速度持续在加快 加速的原因是数据创建的实时性天性, 以及需要将流数据结合到业务流程和决策过程中的要求 速度影响数据延时 从数据创建或获取到数据可以访问的时间差 精确性 : 数据不确定性 精确性指与某些数据类型相关的可靠性 追求高数据质量是一项重要的大数据要求和挑战, 高质量的数据也间接影响了数据的价值 但是, 即使最优秀的数据清理方法也无法消除某些数据固有的不可预测性, 例如天气 经济或者客户最终的购买决定等 大数据是这些特征的组合, 为企业在当前的数字化市场中创造竞争优势提供了机会 它使企业能够转变与客户交互并满足客户需求的方式, 并且使企业, 甚至整个行业能够实现自身的转型 利用新的大数据技术和分析方法改进决策和绩效的机会存在于每个行业中

4 2. Hadoop 的背景及知识体系 2.1 Hadoop 介绍 Hadoop 作为 Apache 基金会资助的开源项目, 由 Doug Cutting 带领的团队进行开发, 基于 Lucene 和 Nutch 等开源项目, 实现了 Google 的 GFS 和 Hadoop 能够稳定运行在 20 个节点的集群 ;2006 年 1 月,Doug Cutting 加入雅虎公司, 同年 2 月 Apache Hadoop 项目正式支持 HDFS 和 MapReduce 的独立开发 同时, 新兴公司 Cloudera 为 Hadoop 提供了商业支持, 帮助企业实现标准化安装, 并志愿贡献社区 2008 年 2 月, 雅虎宣布搭建出世界上最大的基于 Hadoop 的集群系统 Yahoo! Search Webmap, 另外还被广泛应用到雅虎的日志分析 广告计算 科研实验中 ;Amazon 的搜索门户 A9.com 中的商品搜索的索引生成就是基于 Hadoop 完成的 ; 互联网电台和音乐社区网站 Last.fm 使用 Hadoop 集群运行日志分析 A/B 测试评价 AdHoc 处理和图表生成等日常作业 ; 著名 SNS 网站 Facebook 用 Hadoop 构建了整个网站的数据仓库, 进行网站的日志分析和数据挖掘 UC Berkeley 等著名高校也对 Hadoop 进行应用和研究, 以提高其整体性能, 包括 Matei Zaharia 等人改进了 Hadoop 的推测式执行技术并发表了 Improving MapReduce Performance in Heterogeneous Environment;Tyson Condie 等人改进了 MapReduce 体系, 允许数据在操作之间用管道传送, 开发了 Hadoop Online Prototype(HOP) 系统, 并发表了 MapReduce Online 2008 年之后, 国内应用和研究 Hadoop 的企业也越来越多, 包括淘宝 百度 腾讯 网易 金山等 淘宝是国内最先使用 Hadoop 的公司之一 ; 百度在 Hadoop 上进行广泛应用并对它进行改进和调整, 同时赞助了 HyperTable 的开发 总之, 互联网企业是 Hadoop 在国内的主要使用力量 同样的, 很多科研院所也投入到 Hadoop 的应用和研究中, 包括中科院 清华大学 浙江大学和华中科技大学等 Hadoop 有存储和计算能力方面的优势, 在 2012 年的 11 月份,Fackbook 在 Hadoop 的体系下存储了 100PB 的字节 并且是原 Terasort 记录的保持者 Terasort 给出 1TB 的随机数据,Hadoop 用了 1406 台主机 (5624 块硬盘 ), 用时 62 秒完成了排序 2.2 Hadoop 的基础原理 Hadoop 由 HDFS MapReduce HBase Hive 和 ZooKeeper 等成员组成 其中,HDFS 和 MapReduce 是两个最基础最重要的成员

5 HDFS 是 Google GFS 的开源版本, 一个高度容错的分布式文件系统, 它能够提供高吞 吐量的数据访问, 适合存储海量 (PB 级 ) 的大文件 ( 通常超过 64M), 其原理如下图所示 : HDFS 支持传统的层次型文件组织结构 用户或者应用程序可以创建目录, 然后将文件保存在这些目录里 文件系统名字空间的层次结构和大多数现有的文件系统类似 : 用户可以创建 删除 移动或重命名文件 Namenode 和 Datanode HDFS 采用 master/slave 架构 一个 HDFS 集群是由一个 Namenode 和一定数目的 Datanodes 组成 Namenode 是一个中心服务器, 负责管理文件系统的名字空间 (namespace) 以及客户端对文件的访问 集群中的 Datanode 一般是一个节点一个, 负责管理它所在节点

6 上的存储 HDFS 暴露了文件系统的名字空间, 用户能够以文件的形式在上面存储数据 从内部看, 一个文件其实被分成一个或多个数据块, 这些块存储在一组 Datanode 上 Namenode 执行文件系统的名字空间操作, 比如打开 关闭 重命名文件或目录 它也负责确定数据块到具体 Datanode 节点的映射 Datanode 负责处理文件系统客户端的读写请求 在 Namenode 的统一调度下进行数据块的创建 删除和复制 Namenode 和 Datanode 被设计成可以在普通的商用机器上运行 这些机器一般运行着 GNU/Linux 操作系统 (OS) HDFS 采用 Java 语言开发, 因此任何支持 Java 的机器都可以部署 Namenode 或 Datanode 由于采用了可移植性极强的 Java 语言, 使得 HDFS 可以部署到多种类型的机器上 一个典型的部署场景是一台机器上只运行一个 Namenode 实例, 而集群中的其它机器分别运行一个 Datanode 实例 集群中单一 Namenode 的结构大大简化了系统的架构 Namenode 是所有 HDFS 元数据的仲裁者和管理者, 这样, 用户数据永远不会流过 Namenode 但是现阶段, 普通的 NameNode 节点, 会出现单点故障的问题, 可能会在下一个版本解决 或者使用 NameNode 集群的方式进行热备处理 数据复制 HDFS 被设计成能够在一个大集群中跨机器可靠地存储超大文件 它将每个文件存储成一系列的数据块, 除了最后一个, 所有的数据块都是同样大小的 为了容错, 文件的所有数据块都会有副本 每个文件的数据块大小和副本系数都是可配置的 应用程序可以指定某个文件的副本数目 副本系数可以在文件创建的时候指定, 也可以在之后改变 HDFS 中的文件都是一次性写入的, 并且严格要求在任何时候只能有一个写入者 Namenode 全权管理数据块的复制, 它周期性地从集群中的每个 Datanode 接收心跳信号和块状态报告 (Blockreport) 接收到心跳信号意味着该 Datanode 节点工作正常 块状态报告包含了一个该 Datanode 上所有数据块的列表 文件系统元数据的持久化 Namenode 上保存着 HDFS 的名字空间 对于任何对文件系统元数据产生修改的操作, Namenode 都会使用一种称为 EditLog 的事务日志记录下来 例如, 在 HDFS 中创建一个文件, Namenode 就会在 Editlog 中插入一条记录来表示 ; 同样地, 修改文件的副本系数也将往 Editlog 插入一条记录 Namenode 在本地操作系统的文件系统中存储这个 Editlog 整个文件系统的名字空间, 包括数据块到文件的映射 文件的属性等, 都存储在一个称为 FsImage

7 的文件中, 这个文件也是放在 Namenode 所在的本地文件系统上 Namenode 在内存中保存着整个文件系统的名字空间和文件数据块映射 (Blockmap) 的映像 这个关键的元数据结构设计得很紧凑, 因而一个有 4G 内存的 Namenode 足够支撑大量的文件和目录 当 Namenode 启动时, 它从硬盘中读取 Editlog 和 FsImage, 将所有 Editlog 中的事务作用在内存中的 FsImage 上, 并将这个新版本的 FsImage 从内存中保存到本地磁盘上, 然后删除旧的 Editlog, 因为这个旧的 Editlog 的事务都已经作用在 FsImage 上了 这个过程称为一个检查点 (checkpoint) Datanode 将 HDFS 数据以文件的形式存储在本地的文件系统中, 它并不知道有关 HDFS 文件的信息 它把每个 HDFS 数据块存储在本地文件系统的一个单独的文件中 Datanode 并不在同一个目录创建所有的文件, 实际上, 它用试探的方法来确定每个目录的最佳文件数目, 并且在适当的时候创建子目录 在同一个目录中创建所有的本地文件并不是最优的选择, 这是因为本地文件系统可能无法高效地在单个目录中支持大量的文件 当一个 Datanode 启动时, 它会扫描本地文件系统, 产生一个这些本地文件对应的所有 HDFS 数据块的列表, 然后作为报告发送到 Namenode, 这个报告就是块状态报告 通讯协议 所有的 HDFS 通讯协议都是建立在 TCP/IP 协议之上 客户端通过一个可配置的 TCP 端口连接到 Namenode, 通过 ClientProtocol 协议与 Namenode 交互 而 Datanode 使用 DatanodeProtocol 协议与 Namenode 交互 一个远程过程调用 (RPC) 模型被抽象出来封装 ClientProtocol 和 Datanodeprotocol 协议 在设计上,Namenode 不会主动发起 RPC, 而是响应来自客户端或 Datanode 的 RPC 请求 健壮性 HDFS 的主要目标就是即使在出错的情况下也要保证数据存储的可靠性 常见的三种出错情况是 :Namenode 出错, Datanode 出错和网络割裂 (network partitions) 每个 Datanode 节点周期性地向 Namenode 发送心跳信号 网络割裂可能导致一部分 Datanode 跟 Namenode 失去联系 Namenode 通过心跳信号的缺失来检测这一情况, 并将这些近期不再发送心跳信号 Datanode 标记为宕机, 不会再将新的 IO 请求发给它们 任何存储在宕机 Datanode 上的数据将不再有效 Datanode 的宕机可能会引起一些数据块的副本系数低于指定值,Namenode 不断地检测这些需要复制的数据块, 一旦发现就启动复制操作 在下列情况下, 可能需要重新复制 : 某个 Datanode 节点失效, 某个副本遭到损坏,Datanode 上

8 的硬盘错误, 或者文件的副本系数增大 从某个 Datanode 获取的数据块有可能是损坏的, 损坏可能是由 Datanode 的存储设备错 误 网络错误或者软件 bug 造成的 HDFS 客户端软件实现了对 HDFS 文件内容的校验和 (checksum) 检查 当客户端创建一个新的 HDFS 文件, 会计算这个文件每个数据块的校验和, 并将校验和作为一个单独的隐藏文件保存在同一个 HDFS 名字空间下 当客户端获取文件内 容后, 它会检验从 Datanode 获取的数据跟相应的校验和文件中的校验和是否匹配, 如果不 匹配, 客户端可以选择从其他 Datanode 获取该数据块的副本 FsImage 和 Editlog 是 HDFS 的核心数据结构 如果这些文件损坏了, 整个 HDFS 实例都 将失效 因而,Namenode 可以配置成支持维护多个 FsImage 和 Editlog 的副本 任何对 FsImage 或者 Editlog 的修改, 都将同步到它们的副本上 这种多副本的同步操作可能会降 低 Namenode 每秒处理的名字空间事务数量 然而这个代价是可以接受的, 因为即使 HDFS 的应用是数据密集的, 它们也非元数据密集的 当 Namenode 重启的时候, 它会选取最近的 完整的 FsImage 和 Editlog 来使用 Namenode 是 HDFS 集群中的单点故障 (single point of failure) 所在 如果 Namenode 机器故障, 是需要手工干预的 目前, 自动重启或在另一台机器上做 Namenode 故障转移的 功能还没实现 2.3 MapReduce 的原理和执行流程 待续 3. Hadoop 集群的安装 3.1 Hadoop 集群的系统及软件版本 操作系统 :CentOS release 位 Hadoop 版本 :hadoop Eclipse 版本 :eclipse-java-helios-sr2 ( 在应用 hadoop-eclipse-plugin jar 包 的情况中, 建议使用这个 Eclipse 版本, 否则会有许多从本地连接远程集群的问题会出现 ) 3.2 安装 Hadoop 集群前的准备 在 CentOS 系统中创建控制 Hadoop 集群的用户, 该用户后面会有开发环境中的用户对应 起来, 减少 Hadoop 开发的调试复杂性 需要在集群中每一个操作系统中都建立相同的用户

9 该示例中创建了一个 hadoop 的用户, 后面将用它来管理 hadoop 集群 并且在本地的开 发机器中的用户一致, 便于后面的调试 由于集群中的各个机器需要通信, 所以关闭系统的防火墙和 SELinux 复杂的保护, 如果 后面 Hadoop 集群的部署在生产环境中时, 再根据需要开放防火墙 永久关闭防火墙 :#chkconfig level 35 iptables off 关闭 SELiunx, 执行命令 vim /etc/sysconfig/seliunx 将 SELIUNX=enforcing 改为 SELIUNX=disabled 接着继续执行如下命令 : #setenforce permissive 关闭不需要的服务, 可以避免 Hadoop 集群的应用麻烦 执行如下命令 : # for SERVICES in abrtd acpid auditd cpuspeed haldaemon mdmonitor messagebus udev-post;do chkconfig ${SERVICES} off;done 部署架构图 Hostname:Master.Hadoop.ET Hostname:Slave1.Hadoop.ET Hostname:Slave2.Hadoop.ET 3.3 网络配置 在 Hadoop 测试集群中, 一共规划了三台机器, 部署和配置如下表

10 Explain hostname IP Address Master Master.Hadoop.ET Slave1 Slave1.Hadoop.ET Slave2 Slave2.Hadoop.ET 配置 hosts 文件 Hadoop 和 HBase 在通信时, 需要用到机器名进行寻址, 所以要对 /etc/hosts 文件进行编辑 将上表中所规划的三台机器名和 IP 地址在 hosts 文件中进行对应 Master.Hadoop.ET Slave1.Hadoop.ET Slave2.Hadoop.ET 配置 SSH 无密码验证 Hadoop 运行过程中需要管理远端 Hadoop 守护进程, 在 Hadoop 启动之后,NameNode 是过 SSH(Secure Shell) 来启动和停止各个 DataNode 上的各种守护进程的 这就必须在节点之间执行指令时, 不需要进行密码的输入, 简化操作 故此需要配置 SSH 运用无密码公钥认证的形式, 这样 NameNode 可以使用 SSH 无密码登陆并启动 DataName 进程, 同样原理, DataNode 上也能使用 SSH 无密码登陆到 NameNode 因为在安装 CentOS 系统时, 已经选择了 ssh 和 rsync 服务, 所以在这儿不需要进行安装, 可以通过命令来检查服务是否正常 SSH 无密码登陆的原理 Master(NameNode JobTracker HMaster) 作为客户端, 要实现无密码公钥认证, 连接到服务器 (DataNode Tasktracker) 上时, 需要在 Master 上生成一个密钥对, 包括一个公钥和一个私钥, 而后将公钥复制到所有 Slave 上 当 Master 通过 SSH 连接 Salve 时, Salve 就会生成一个随机数并用 Master 的公钥对随机数进行加密, 并发送给 Master Master 收到加密数之后再用私钥解密, 并将解密数回传给 Slave,Slave 确认解密无误之后就允许 Master 进行连接了 这个就是典型的非对称加密算法的应用

11 Master 机器上生成密码对 切换至 hadoop 的用户, 并且在在 Master 节点上执行以下命令 : ssh-keygen t rsa P '' 这条命令是生成其无密码密钥对, 询问其保存路径时直接回车采用默认路径 生成的密钥对 :id_rsa 和 id_rsa.pub, 默认存储在 /home/hadoop/.ssh 目录下 对 查看 /home/hadoop/ 下是否有.ssh 文件夹, 且.ssh 文件下是否有两个产生的无密码密钥 配置 Master 与 Slave 的信任关系 在 Master 节点上做如下配置, 把 id_rsa.pub 追加到授权的 key 里面去 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 在进行信任建立前, 需要做两件事儿 第一件事是修改文件 authorized_keys 权限 ( 权 限的设置非常重要, 因为不安全的设置, 会让系统不能正常使用 RSA 功能, 可能会让机器 之间的访问依然需要密码验证 ), 另一件事是用 root 用户设置 /etc/ssh/sshd_config 的

12 内容 使其无密码登录有效 1, 修改 authorized_keys 文件的权限 执行命令 :chmod 600 ~/.ssh/authorized_keys 2, 用 root 用户登录服务器修改 SSH 配置文件 /etc/ssh/sshd_config 的下列内容 RSAAuthentication yes # 启用 RSA 认证 PubkeyAuthentication yes # 启用公钥私钥配对认证方式 AuthorizedKeysFile.ssh/authorized_keys # 公钥文件路径 ( 和上面生成的 文件同 ) 设置完之后记得重启 SSH 服务, 才能使刚才设置有效 执行命令重启 SSH 服务 :service sshd restart 3, 需要把公钥复制所有的 Slave 机器上 切换成 hadoop 用户, 执行 scp 命令 scp ~/.ssh/id_rsa.pub hadoop@ :~/ scp ~/.ssh/id_rsa.pub hadoop@ :~/ 上面的命令是将 Master 上面的文件 id_rsa.pub 复制到 和 的用户为 hadoop 的 /home/hadoop/ 目录下面 4, 在各个 Slave 机器目录 /home/hadoop/ 下创建.ssh 文件夹这一步并不是必须的, 如果在 Slave1.Hadoop.ET 的 /home/hadoop 已经存在就不需要创建了, 因为之前并没有对 Slave 机器做过无密码登录配置, 所以该文件是不存在的 用下面命令进行创建 ( 备注 : 用 hadoop 登录系统, 如果不涉及系统文件修改, 一般情况下都是用我们之前建立的普通用户 hadoop 进行执行命令 ) mkdir ~/.ssh 然后是修改文件夹.ssh 的用户权限, 把他的权限修改为 700, 用下面命令执行 :

13 chmod 700 ~/.ssh 备注 : 如果不进行上面的操作 会因为.ssh 文件夹的权限设置不对, 导致 RSA 无密码远程登录失败 5, 追加到各个 Slave 系统的授权文件 authorized_keys 中使用下面命令进行追加并修改 authorized_keys 文件权限 : cat ~/id_rsa.pub >> ~/.ssh/authorized_keys chmod 600 ~/.ssh/authorized_keys 6, 在各个 Slave 系统中切换回 root 用户修改 /etc/ssh/sshd_config 文件 RSAAuthentication yes # 启用 RSA 认证 PubkeyAuthentication yes # 启用公钥私钥配对认证方式 AuthorizedKeysFile.ssh/authorized_keys # 公钥文件路径 ( 和上面生成的文件同 ) 重启 SSH 服务, 才能使刚才设置有效 执行命令重启 SSH 服务 : service sshd restart 7, 在 Master.Hadoop.ET 上面使用 SSH 无密码登录 Slave1.Hadoop.ET 进行测试 可以看出, 已经成功的配置了从 Master 至 Slave 的信任关系 配置 Slave 与 Master 的信任关系 与 Master 无密码登录所有 Slave 原理一样, 就是把 Slave 的公钥追加到 Master 的.ssh 文件夹下的 authorized_keys 中, 记得是追加 (>>) 为了说明情况, 现在就以 Slave1.Hadoop.ET 无密码登录 Master.Hadoop.ET 为例, 进行一遍操作, 巩固一下前面知识 首先创建 Slave1.Hadoop.ET 自己的公钥和私钥, 并把自己的公钥追加到

14 authorized_keys 文件中 用到的命令如下 : ssh-keygen t rsa P '' cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 接着是用命令 scp 复制 Slave1.Hadoop.ET 的公钥 id_rsa.pub 到 Master.Hadoop.ET 的 /home/hadoop/ 目录下 scp ~/.ssh/id_rsa.pub hadoop@ :~/ 在 Master 上面, 登陆 Hadoop 用户追加到 Master.Hadoop 的 authorized_keys 中 cat ~/id_rsa.pub >> ~/.ssh/authorized_keys 最后是测试从 Slave1.Hadoop.ET 到 Master.Hadoop.ET 的信任关系是否建立成功 3.4 Java 环境安装 所有的机器上都要安装 JDK, 先在 Master 服务器安装, 然后其他服务器按照步骤重复进行即可 安装 JDK 以及配置环境变量, 需要以 root 的角色进行 1, 创建 Java 的目录, 将 jdk-6u38-linux-x64.bin 复制进去 mkdir /usr/java 2, 接着进入 /usr/java 目录下通过下面命令使其 JDK 获得可执行权限, 并安装 JDK chmod +x jdk-6u38-linux-x64.bin./jdk-6u38-linux-x64.bin 3, 配置环境变量, 编辑 /etc/profile 文件, 在后面添加 Java 的 JAVA_HOME CLASSPATH 以及 PATH 内容 vim /etc/profile 在 /etc/profile 文件的尾部添加以下内容 : export JAVA_HOME=/usr/java/jdk1.6.0_38/ export JRE_HOME=/usr/java/jdk1.6.0_38/jre export HADOOP_HOME_WARN_SUPPRESS=1 export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib

15 export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin 4, 保存并退出, 执行下面命令使其配置立即生效 source /etc/profile 5, 配置完毕并生效后, 用下面命令判断是否成功 Java version 3.5 Hadoop 的安装 所有的机器上都要安装 hadoop, 先在 Master 服务器安装, 然后将配置好的 hadoop 复 制到其它 Slave 机器上即可 需要注意的是安装和配置 hadoop 要以 root 的身份进行 1, 将 hadoop tar.gz 复制到 /usr/ 的目录下,root 用户登陆 Master.Hadoop.ET 服务器进行解压 进入 /usr 的目录之后, 执行如下命令 : tar zxvf hadoop tar.gz # 解压 hadoop tar.gz 安装包 2, 为了方便后面的操作, 将 hadoop 进行更名 mv hadoop hadoop # 将 hadoop 文件夹重命名 hadoop 3, 在 /usr/hadoop 的目录中, 创建一个 tmp 的文件夹, 用于 hadoop 的配置 mkdir /usr/hadoop/tmp 然后删除 hadoop 的压缩包 rm -rf hadoop tar.gz 4, 接着需要将 hadoop 文件夹的权限分配给 hadoop 用户, 这步很重要 chown R hadoop:hadoop hadoop # 将文件夹 hadoop 权限分配给 hadoop 用户与 hadoop 用户组 hadoop:hadoop

16 5, 在系统中配置 hadoop 的环境变量 方便 hadoop 的命令执行 使用 vi 编辑 /etc/profile 文件, 内容如下 执行 source /etc/profile 命令重启 /etc/profile Hadoop 的基础配置 根据以下的配置, 可以将 hadoop 的集群运行起来, 但需要在生产环境中做更详细的配 置, 可以查看相关的章节 1, 配置 hadoop-env.sh 该 hadoop-env.sh 文件位于 /usr/hadoop/conf 目录下 它的作用是配置与 hadoop 运行环境相关的变量, 其中有一个变量是 JAVA_HOME, 将它修改为 java 的路径 export JAVA_HOME=/usr/java/jdk1.6.0_38 Hadoop 配置文件在 conf 目录下, 之前的版本的配置文件主要是 Hadoop-default.xml 和 Hadoop-site.xml 由于 Hadoop 发展迅速, 代码量急剧增加, 代码开发分为了 core,hdfs 和 map/reduce 三部分, 配置文件也被分成了三个 core-site.xml hdfs-site.xml mapred-site.xml core-site.xml 和 hdfs-site.xml 是站在 HDFS 角度上配置文件 ;core-site.xml 和 mapred-site.xml 是站在 MapReduce 角度上配置文件 2, 配置 core-site.xml 文件 修改 Hadoop 核心配置文件 core-site.xml, 这里配置的是 HDFS 的地址和端口号 <configuration>

17 <property> <name>hadoop.tmp.dir</name> <value>/usr/hadoop/tmp</value> </property> <property> <name>fs.default.name</name> <value>hdfs:// :9000</value> </property> </configuration> 备注 : 如没有配置 hadoop.tmp.dir 参数, 此时系统默认的临时目录为 : /tmp/hadoo-hadoop 而这个目录在每次重启后都会被删除, 必须重新执行 hadoop namenode format 才行, 否则会出错 3, 配置 hdfs-site.xml 文件修改 Hadoop 中 HDFS 的配置, 该文件配置中的备份方式默认为 3 如果实际情况 salve 少于 3 台就会报错, 而且当前阶段只需要配置基础环境, 所以改成 1 即可 <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> 4, 配置 mapred-site.xml 文件修改 Hadoop 中 MapReduce 的配置文件, 配置的是 JobTracker 的地址和端口 <configuration> <property> <name>mapred.job.tracker</name> <value> </property> </configuration> 5, 配置 masters 文件

18 去掉 localhost, 加入 Master 机器的 IP: , 配置 slaves 文件 (Master 主机特有 ) 去掉 localhost, 加入集群中所有 Slave 机器的 IP, 也是每行一个 , 使用 scp 的命令, 将 Master 中配置好的 hadoop 复制到集群中的所有 Slave 机器中 scp -r /usr/hadoop root@ :/usr/ scp -r /usr/hadoop root@ :/usr/ 8, 接着在所有的 Slave 上修改 /etc/profile 文件 ( 配置 java 环境变量的文件 ), 将 以下语句添加到末尾, 并使其有效 : export HADOOP_HOME=/usr/hadoop export PATH=$PATH:$HADOOP_HOME/bin 然后使用 source /etc/profile 命令重启 profile 9, 给集群中的所有系统, 分配 hadoop 目录的权限给 hadoop 用户 chown -R hadoop:hadoop /usr/hadoop 启动及验证 1, 格式化 HDFS 文件系统在 Master.Hadoop.ET 上使用普通用户 hadoop 进行操作 ( 备注 : 只需一次, 下次启动不再需要格式化, 只需 start-all.sh 即可 ) hadoop namenode format

19 2, 启动 Hadoop 系统 执行命令 start-all.sh 3, 使用 jps 命令查看 hadoop 是否运行起来 在 Master 中 jps 的结果

20 在 Slave 中 jps 的结果 完成 Hadoop 集群的基本搭建 4. HBase 集群的安装 待续 5. Hive 的安装 待续 6. Eclipse 开发环境的配置 待续 7. Hadoop MapReduce HBase Hive API 待续 8. Hadoop 与 ESB 的结合实例 待续

对于 Hadoop 来说, 在 HDFS 看来, 节点分为 Namenode 和 Datanode, 其中 Namenode 只有一个,Datanode 可以是很多 ; 在 MapReduce 看来, 节点又分为 Jobtracker 和 Tasktracker, 其中 Jobtracker 只有一

对于 Hadoop 来说, 在 HDFS 看来, 节点分为 Namenode 和 Datanode, 其中 Namenode 只有一个,Datanode 可以是很多 ; 在 MapReduce 看来, 节点又分为 Jobtracker 和 Tasktracker, 其中 Jobtracker 只有一 hadoop----- 云计算实验 作者 : 张吉良李菁平邓鹏球 关键词 : hadoop 分布式 云计算 mapreduce 摘要 : 摩尔定律统制下的软件开发时代有一个非常有意思的现象 : Andy giveth, and Bill taketh away. 不管 CPU 的主频有多快, 我们始终有办法来利用它, 而我们也陶醉在机器升级带来的程序性能提高中 我们不知不觉的一直在享受着这样的免费午餐

More information

程模型,MapReduce 把任务分为 map( 映射 ) 阶段和 reduce( 化简 ) 由于 MapReduce 工作原理的特性, Hadoop 能以并行的方式访问数据, 从而实现快速访问数据 Hbase--HBase 是一个建立在 HDFS 之上, 面向列的 NoSQL 数据库, 用于快速读

程模型,MapReduce 把任务分为 map( 映射 ) 阶段和 reduce( 化简 ) 由于 MapReduce 工作原理的特性, Hadoop 能以并行的方式访问数据, 从而实现快速访问数据 Hbase--HBase 是一个建立在 HDFS 之上, 面向列的 NoSQL 数据库, 用于快速读 Hadoop1.X 伪分布式安装 本文版权归作者和博客园共有, 欢迎转载, 但未经作者同意必须保留此段声明, 且在文章页面明显位置给出原文连接, 博主为石山园, 博客地址为 http://www.cnblogs.com/shishanyuan 该系列课程是应邀实验楼整理编写的, 这里需要赞一下实验楼提供了学习的新方式, 可以边看博客边上机实验, 课程地址为 https://www.shiyanlou.com/courses/237

More information

tar -xzf hadoop tar.gz mv hadoop /app 在 Hadoop 目录下创建子目录 在 hadoop 目录下创建 tmp name 和 data 目录 cd /app/hadoop mkdir tmp mkdir

tar -xzf hadoop tar.gz mv hadoop /app 在 Hadoop 目录下创建子目录 在 hadoop 目录下创建 tmp name 和 data 目录 cd /app/hadoop mkdir tmp mkdir Hadoop2.X 64 位环境搭建 本文版权归作者和博客园共有, 欢迎转载, 但未经作者同意必须保留此段声明, 且在文章页面明显位置给出原文连接, 博主为石山园, 博客地址为 http://www.cnblogs.com/shishanyuan 该系列课程是应邀实验楼整理编写的, 这里需要赞一下实验楼提供了学习的新方式, 可以边看博客边上机实验, 课程地址为 https://www.shiyanlou.com/courses/237

More information

在Fedora上部署Hadoop2.2.0伪分布式平台

在Fedora上部署Hadoop2.2.0伪分布式平台 如果你想配置完全分布式平台请参见本博客 Hadoop2.2.0 完全分布式集群平台安装与设置 首先, 你得在电脑上面安装好 jdk7, 如何安装, 这里就不说了, 网上一大堆教程! 然后安装好 ssh, 如何安装请参见本博客 Linux 平台下安装 SSH 并设置好无密码登录 ( Ubuntu 和 CentOS 如何配置 SSH 使得无密码登陆 ) 好了, 上面的前提条件部署好之后, 下面将进入 Hadoop2.2.0

More information

Ubuntu和CentOS如何配置SSH使得无密码登陆

Ubuntu和CentOS如何配置SSH使得无密码登陆 Ubuntu 和 CentOS 如何配置 SSH 使得无密码登陆 在使用 Hadoop 的时候, 一般配置 SSH 使得我们可以无密码登录到主机, 下面分别以 Ubuntu 和 CentOS 两个平台来举例说明如何配置 SSH 使得我们可以无密码登录到主机, 当然, 你得先安装好 SSH 服务器, 并开启 ( 关于如何在 Linux 平台下安装好 SSH 请参加本博客的 Linux 平台下安装 SSH

More information

Linux服务器构建与运维管理

Linux服务器构建与运维管理 1 Linux 服务器构建与运维管理 第 2 章 :Linux 基本命令 阮晓龙 13938213680 / rxl@hactcm.edu.cn http://linux.xg.hactcm.edu.cn http://www.51xueweb.cn 河南中医药大学管理科学与工程学科 2018.3 2 提纲 目录与文件的操作 mkdir touch mv cp rm rmdir file tree

More information

目录 1 编译 HADOOOP 搭建环境 安装并设置 maven 以 root 用户使用 yum 安装 svn 以 root 用户使用 yum 安装 autoconf automake libtool cmake..

目录 1 编译 HADOOOP 搭建环境 安装并设置 maven 以 root 用户使用 yum 安装 svn 以 root 用户使用 yum 安装 autoconf automake libtool cmake.. Spark 编译与部署 ( 中 ) --Hadoop 编译安装 第 1 页共 28 页 目录 1 编译 HADOOOP... 3 1.1 搭建环境... 3 1.1.1 安装并设置 maven... 3 1.1.2 以 root 用户使用 yum 安装 svn... 4 1.1.3 以 root 用户使用 yum 安装 autoconf automake libtool cmake... 5 1.1.4

More information

目录 一 安装配置步骤 虚拟机的准备工作 安装和配置 JDK 环境 配置 SSH 免密码登录 编辑 etc/hosts 文件 配置 hadoop 将 master 上的 Hadoop 安装包拷

目录 一 安装配置步骤 虚拟机的准备工作 安装和配置 JDK 环境 配置 SSH 免密码登录 编辑 etc/hosts 文件 配置 hadoop 将 master 上的 Hadoop 安装包拷 hadoop 集群部署 ( 部署 ) 目录 一 安装配置步骤... 3 1.1 虚拟机的准备工作... 3 1.2 安装和配置 JDK 环境... 3 1.3 配置 SSH 免密码登录... 4 1.4 编辑 etc/hosts 文件... 6 1.5 配置 hadoop... 7 1.6 将 master 上的 Hadoop 安装包拷贝到数据节点上... 9 1.7 编辑 master 主机的 etc/profile

More information

手册 doc

手册 doc 1. 2. 3. 3.1 3.2 3.3 SD 3.4 3.5 SD 3.6 3.7 4. 4.1 4.2 4.3 SD 4.4 5. 5.1 5.2 5.3 SD 6. 1. 1~3 ( ) 320x240~704x288 66 (2G SD 320x2401FPS ) 32M~2G SD SD SD SD 24V DC 3W( ) -10~70 10~90% 154x44x144mm 2. DVR106

More information

深圳市亚可信息技术有限公司 NetWeaver 7.3 EhP1 ABAP on Redhat Enterprise Linux Server 62 for Oracle112 High Availability System Installation Created by

深圳市亚可信息技术有限公司 NetWeaver 7.3 EhP1 ABAP on Redhat Enterprise Linux Server 62 for Oracle112 High Availability System Installation Created by NetWeaver 7.3 EhP1 ABAP on Redhat Enterprise Linux Server 62 for Oracle112 High Availability System Installation Created by 13092539@qq.com 1. 安装规划 Parameter Host A Host B Host C For ASCS Database Dialog

More information

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示 完整的大数据解決方案 ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示 Dataframe Pig YARN Spark Stand Alone HDFS Spark Stand Alone Mesos Mesos Spark Streaming Hive Hadoop

More information

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc 在 VMWare-5.5+RedHat-9 下建立 本机 QTopia-2.1.1 虚拟平台 张大海 2008-5-9 一 资源下载 1. 需要以下安装包 : tmake-1.13.tar.gz qtopia-free-source-2.1.1.tar.gz qt-embedded-2.3.10-free.tar.gz qt-x11-2.3.2.tar.gz qt-x11-free-3.3.4.tar.gz

More information

CDH5.3.6 离线安装手册 目录 一 机器准备...1 二 环境准备 网络配置 ssh 免密码登录 关闭防火墙 禁用 SELINUX 安装 JDK 并设置 JAVA_HOME 系统时间同步 设置文件打开数目和

CDH5.3.6 离线安装手册 目录 一 机器准备...1 二 环境准备 网络配置 ssh 免密码登录 关闭防火墙 禁用 SELINUX 安装 JDK 并设置 JAVA_HOME 系统时间同步 设置文件打开数目和 CDH5.3.6 离线安装手册 目录 一 机器准备...1 二 环境准备...2 1 网络配置...2 2 ssh 免密码登录... 4 3 关闭防火墙...5 4 禁用 SELINUX...6 5 安装 JDK 并设置 JAVA_HOME... 6 6 系统时间同步...7 7 设置文件打开数目和用户最大进程数... 10 三 安装 MySQL 数据库... 11 1 下载解压...11 2 编译环境准备...

More information

水晶分析师

水晶分析师 大数据时代的挑战 产品定位 体系架构 功能特点 大数据处理平台 行业大数据应用 IT 基础设施 数据源 Hadoop Yarn 终端 统一管理和监控中心(Deploy,Configure,monitor,Manage) Master Servers TRS CRYSTAL MPP Flat Files Applications&DBs ETL&DI Products 技术指标 1 TRS

More information

一 登录 crm Mobile 系统 : 输入 ShijiCare 用户名和密码, 登录系统, 如图所示 : 第 2 页共 32 页

一 登录 crm Mobile 系统 : 输入 ShijiCare 用户名和密码, 登录系统, 如图所示 : 第 2 页共 32 页 第 1 页共 32 页 crm Mobile V1.0 for IOS 用户手册 一 登录 crm Mobile 系统 : 输入 ShijiCare 用户名和密码, 登录系统, 如图所示 : 第 2 页共 32 页 二 crm Mobile 界面介绍 : 第 3 页共 32 页 三 新建 (New) 功能使用说明 1 选择产品 第 4 页共 32 页 2 填写问题的简要描述和详细描述 第 5 页共

More information

Chapter #

Chapter # 第三章 TCP/IP 协议栈 本章目标 通过本章的学习, 您应该掌握以下内容 : 掌握 TCP/IP 分层模型 掌握 IP 协议原理 理解 OSI 和 TCP/IP 模型的区别和联系 TCP/IP 介绍 主机 主机 Internet TCP/IP 早期的协议族 全球范围 TCP/IP 协议栈 7 6 5 4 3 应用层表示层会话层传输层网络层 应用层 主机到主机层 Internet 层 2 1 数据链路层

More information

ssh-keygen -t rsa

ssh-keygen -t rsa 虚拟并行运算环境 mpi 的配置简介科研菜鸟 v2.0 http://blog.sciencenet.cn/u/sanshiphy 问题 : 有一台电脑,1 cpu, 超线程 8 核, 已安装 Ubuntu 系统 现配置两台虚拟机, 每台虚拟机 1cpu,3 核, 两台虚拟机均安装 Ubuntu server 系统, 并实现 mpi 并行运算 思路 : 利用 vmware 构造虚拟机, 利用 ssh

More information

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0 SDChain-Matrix 节点搭建指南 目录 1 环境要求... 3 2 软件下载... 4 3 安装部署... 4 3.1 部署可执行程序目录... 4 3.2 部署配置文件目录... 4 3.3 部署数据库文件目录... 4 3.4 部署日志文件目录... 4 3.5 部署依赖库文件目录... 4 4 配置参数... 5 5 启动运行... 7 5.1 普通模式启动... 7 5.2 加载启动模式...

More information

客户端虚拟机使用说明

客户端虚拟机使用说明 Spark 客户端云主机使用手册 更新时间 2016-05-13 目录 1 集群和客户端云主机信息... 3 2 配置主机名解析... 4 3 HDFS 测试... 4 3.1 配置客户端... 4 3.2 查询 HDFS 集群信息... 4 3.3 HDFS 文件和目录操作示例... 5 4 Spark 测试... 6 4.1 启动 spark-shell... 6 4.2 示例 :Pi 估值...

More information

.. 3 N

.. 3 N 1 .. 3 N9.. 4 5.. 6 7.. 8 20.. 21 23.. 24.. 25 26.. 27.. 28.. 29 2 (Cyber Café) Linux (LAN) Linux Public Home 3 K12LTSP K12LTSPFedora Core 4 (Linux)LTSP Linux (command line interface) (Graphical User Interface,

More information

看 数 据, 在 人 群 中 找 到 自 己 2015 年 有 749 万 本 科 毕 业 生 估 算 全 国 985 高 校 毕 业 生 人 数 : 约 17 万 占 毕 业 生 人 数 的 2.26%; 估 算 全 国 一 本 高 校 毕 业 生 人 数 : 约 90.227 万, 占 毕 业

看 数 据, 在 人 群 中 找 到 自 己 2015 年 有 749 万 本 科 毕 业 生 估 算 全 国 985 高 校 毕 业 生 人 数 : 约 17 万 占 毕 业 生 人 数 的 2.26%; 估 算 全 国 一 本 高 校 毕 业 生 人 数 : 约 90.227 万, 占 毕 业 内 部 资 料 注 意 保 存 研 究 与 参 考 第 十 五 期 ( 总 第 一 百 零 三 期 ) 山 西 大 学 商 务 学 院 独 立 学 院 教 育 研 究 室 二 一 五 年 十 一 月 二 十 六 日 编 者 的 话 大 数 据 (big data), 是 指 无 法 在 可 承 受 的 时 间 范 围 内 用 常 规 软 件 工 具 进 行 捕 捉 管 理 和 处 理 的 数 据 集

More information

目 录 1 不 断 开 发 工 具 以 管 理 大 数 据...2 1.1 Hadoop* 简 介 : 支 持 从 大 数 据 中 获 得 出 色 价 值 的 可 靠 框 架... 2 1.2 大 数 据 技 术 的 行 业 生 态 系 统... 2 2 在 关 键 组 件 中 实 现 平 衡...

目 录 1 不 断 开 发 工 具 以 管 理 大 数 据...2 1.1 Hadoop* 简 介 : 支 持 从 大 数 据 中 获 得 出 色 价 值 的 可 靠 框 架... 2 1.2 大 数 据 技 术 的 行 业 生 态 系 统... 2 2 在 关 键 组 件 中 实 现 平 衡... 白 皮 书 英 特 尔 固 态 硬 盘 英 特 尔 以 太 网 融 合 网 络 英 特 尔 Hadoop* 发 行 版 软 件 应 用 大 数 据 技 术 获 得 近 实 时 分 析 巨 大 成 效 1 平 衡 的 基 础 设 施 使 工 作 负 载 完 成 时 间 从 4 小 时 缩 短 为 7 如 今, 基 于 广 泛 可 用 的 计 算 存 储 和 网 络 组 件 的 改 进, 商 业 学 术

More information

白 皮 书 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 目 录 要 点 概 述...1 业 务 挑 战...2 Hadoop* 分 发 版 注 意 事 项...3 Hadoop* 基 础 架 构 注 意 事 项

白 皮 书 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 目 录 要 点 概 述...1 业 务 挑 战...2 Hadoop* 分 发 版 注 意 事 项...3 Hadoop* 基 础 架 构 注 意 事 项 IT@Intel 白 皮 书 英 特 尔 IT 部 门 大 数 据 和 商 业 智 能 2013 年 10 月 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 要 点 概 述 仅 在 五 周 之 内, 我 们 就 实 施 了 基 于 Apache Hadoop* 英 特 尔 分 发 版 的 低 成 本 可 完 全 实 现 的 大 数

More information

MASQUERADE # iptables -t nat -A POSTROUTING -s / o eth0 -j # sysctl net.ipv4.ip_forward=1 # iptables -P FORWARD DROP #

MASQUERADE # iptables -t nat -A POSTROUTING -s / o eth0 -j # sysctl net.ipv4.ip_forward=1 # iptables -P FORWARD DROP # iptables 默认安全规则脚本 一 #nat 路由器 ( 一 ) 允许路由 # iptables -A FORWARD -i eth0 -o eth1 -j ACCEPT ( 二 ) DNAT 与端口转发 1 启用 DNAT 转发 # iptables -t nat -A PREROUTING -p tcp -d 192.168.102.37 dprot 422 -j DNAT to-destination

More information

内 容 提 要 将 JAVA 开 发 环 境 迁 移 到 Linux 系 统 上 是 现 在 很 多 公 司 的 现 实 想 法, 而 在 Linux 上 配 置 JAVA 开 发 环 境 是 步 入 Linux 下 JAVA 程 序 开 发 的 第 一 步, 本 文 图 文 并 茂 地 全 程 指

内 容 提 要 将 JAVA 开 发 环 境 迁 移 到 Linux 系 统 上 是 现 在 很 多 公 司 的 现 实 想 法, 而 在 Linux 上 配 置 JAVA 开 发 环 境 是 步 入 Linux 下 JAVA 程 序 开 发 的 第 一 步, 本 文 图 文 并 茂 地 全 程 指 内 容 提 要 将 JAVA 开 发 环 境 迁 移 到 Linux 系 统 上 是 现 在 很 多 公 司 的 现 实 想 法, 而 在 Linux 上 配 置 JAVA 开 发 环 境 是 步 入 Linux 下 JAVA 程 序 开 发 的 第 一 步, 本 文 图 文 并 茂 地 全 程 指 导 你 搭 建 Linux 平 台 下 的 JAVA 开 发 环 境, 包 括 JDK 以 及 集

More information

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7.

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes 包管理理 工具 Helm 蔺礼强 Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes

More information

要 注 意 的 是,Flume 中 对 事 件 的 处 理 不 需 要 带 状 态, 它 的 Scalability 可 以 很 容 易 实 现 3. Manageability:Flume 利 用 ZooKeeper 和 gossip, 保 证 配 置 数 据 的 一 致 性 高 可 用 同 时,

要 注 意 的 是,Flume 中 对 事 件 的 处 理 不 需 要 带 状 态, 它 的 Scalability 可 以 很 容 易 实 现 3. Manageability:Flume 利 用 ZooKeeper 和 gossip, 保 证 配 置 数 据 的 一 致 性 高 可 用 同 时, Flume 介 绍 安 装 与 应 用 案 例 本 文 版 权 归 作 者 和 博 客 园 共 有, 欢 迎 转 载, 但 未 经 作 者 同 意 必 须 保 留 此 段 声 明, 且 在 文 章 页 面 明 显 位 置 给 出 原 文 连 接, 博 主 为 石 山 园, 博 客 地 址 为 http://www.cnblogs.com/shishanyuan 该 系 列 课 程 是 应 邀 实 验

More information

细细品味 Hadoop Hadoop 集群 ( 第 5 期副刊 ) 精华集锦 csaxp 年 2 月 29 日

细细品味 Hadoop Hadoop 集群 ( 第 5 期副刊 ) 精华集锦 csaxp 年 2 月 29 日 细细品味 Hadoop Hadoop 集群 ( 第 5 期副刊 ) 精华集锦 csaxp http://www.xiapistudio.com/ 2012 年 2 月 29 日 目录 1 本期内容... 2 1.1 Linux 配置 java 环境变量... 2 1.1.1 解压安装 jdk... 2 1.1.2 需要配置的环境变量... 2 1.1.3 三种配置环境变量的方法... 2 1.1.4

More information

目 录(目录名)

目  录(目录名) 目录 1 概述 1-1 2 安装说明 2-1 2.1 支持的 Linux 操作系统 2-1 2.2 使用 root 用户安装 Linux inode 2-1 2.3 使用普通用户安装 Linux inode 2-4 3 使用 Linux inode 进行认证 3-1 4 卸载 Linux inode 4-1 5 常见问题 5-1 1-1 1 概述 Linux 版本的 inode 智能客户端 ( 以下简称

More information

培 训 机 构 介 绍 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培

培 训 机 构 介 绍  中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培 Hadoop 2.0 培 训 Hadoop 2.0Training Hadoop 2.0 运 维 与 开 发 实 战 培 训 邀 请 函 培 训 机 构 介 绍 www.zkpk.org 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开

More information

<4D6963726F736F667420576F7264202D204861646F6F70B4F3CAFDBEDDBCB0BAA3C1BFCAFDBEDDCDDABEF2D3A6D3C3B9A4B3CCCAA6C5E0D1B5B0E056312E332E646F63>

<4D6963726F736F667420576F7264202D204861646F6F70B4F3CAFDBEDDBCB0BAA3C1BFCAFDBEDDCDDABEF2D3A6D3C3B9A4B3CCCAA6C5E0D1B5B0E056312E332E646F63> 关 于 举 办 Hadoop 大 数 据 及 海 量 数 据 挖 掘 应 用 工 程 师 培 训 班 的 通 知 随 着 云 时 代 的 来 临, 大 数 据 技 术 将 具 有 越 来 越 重 要 的 战 略 意 义 大 数 据 分 析 与 挖 掘 技 术 已 经 渗 透 到 每 一 个 行 业 和 业 务 职 能 领 域, 逐 渐 成 为 重 要 的 生 产 要 素, 人 们 对 于 海 量 数

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 在 Oracle Linux 6.5 上安装 Oracle RAC 12.2.0.1 预备知识 RAC 的拓扑图 RAC 安装和配置 预备知识 如果你想了解更多 Oracle 的知识, 官方文档是最佳途径 https://docs.oracle.com/en/ 最近我看到了 Oracle Upgrades 专家 Mike Dietrich 的这篇博客文章 https://mikedietrichde.com/2018/07/30/clarification-support-periods-for-oracle-12-2-0-1-and-18c/

More information

PowerPoint 簡報

PowerPoint 簡報 使用 Hadoop 架設雲端系統 配置 Hadoop 實驗平台 可使用虛擬技術 Virtual Box Xen 或 Vmware 虛擬軟體, 一次建立 3-5 個 Linux 建議執行 Hadoop 平台最低硬體需求 2GHz 以上的 2 或 4 核心處理器 4GB DRAM IDE 或 SATA 硬碟 250GB 以上 100Mbps 以上的網路卡與交換器 配置 Hadoop 實驗平台 虛擬主機配置

More information

大数据分析技术 [13] 1.1 大数据 Big Data [2] IBM 5V Volume Velocity Variety Value Veracity Volume Velocity Variety Value Veracity 表 1 大数据特征表 Tab.1

大数据分析技术 [13] 1.1 大数据 Big Data [2] IBM 5V Volume Velocity Variety Value Veracity Volume Velocity Variety Value Veracity 表 1 大数据特征表 Tab.1 2016 2016, Vol. 37, No. 01 37 01 COMPUTER ENGINEERING & SOFTWARE IT 大数据在输变电设备状态评估中的研究 周广 1, 闫丹凤 1, 许光可 2, 李笋 1. 100876 2. 250001 2 摘要 : 电网的高速发展带来海量数据的存储和分析问题, 传统的数据管理和分析工具不再适用 本文主要对大数据分析的相关技术在输变电设备状态评估中的应用进行了研究

More information

KV-cache 1 KV-cache Fig.1 WorkflowofKV-cache 2.2 Key-value Key ; Key Mem-cache (FIFO) Value Value Key Mem-cache ( Value 256B 100 MB 20%

KV-cache 1 KV-cache Fig.1 WorkflowofKV-cache 2.2 Key-value Key ; Key Mem-cache (FIFO) Value Value Key Mem-cache ( Value 256B 100 MB 20% 38 11 2013 11 GeomaticsandInformationScienceofWuhanUniversity Vol.38No.11 Nov.2013 :1671-8860(2013)11-1339-05 :A GIS Key-value 1 1 1 1 (1 129 430079) : 设计了一种基于 Key-value 结构的缓存 KV-cache 旨在简化数据结构 高效管理缓存数据

More information

正文.indd

正文.indd 第 2 章 Hadoop 的安装与配置 本章内容 在 Linux 上安装与配置 Hadoop 在 Windows 上安装与配置 Hadoop 安装和配置 Hadoop 集群日志分析及几个小技巧小结 第2章 Hadoop 的安装与配置 19 Hadoop 的 安 装 非 常 简 单 大 家 可 以 在 官 网 上 下 载 到 最 近 的 几 个 版 本 网 址 为 http:// apache.etoak.com/hadoop/core/

More information

Reducing Client Incidents through Big Data Predictive Analytics

Reducing Client Incidents through Big Data Predictive Analytics IT@lntel 白 皮 书 英 特 尔 IT 部 门 IT 最 佳 实 践 大 数 据 预 测 分 析 2013 年 12 月 通 过 大 数 据 预 测 分 析 减 少 客 户 端 事 故 总 体 概 述 相 比 过 去 的 被 动 反 应, 我 们 现 在 能 够 更 容 易 主 动 找 出 客 户 端 问 题, 并 及 时 将 其 修 复 以 免 问 题 扩 大, 从 而 为 企 业 节 约

More information

三 開啟第一台機器, 點擊右上角網路手動設定, 解除鎖定選擇 eth1 屬性並設定固定 ip( 例如 : ) 第二台機器網路設定要選擇 eth3 設定固定 ip( ) 四 接著編輯 /etc/hosts 輸入 ip 以及主機名稱, 第二台機器也

三 開啟第一台機器, 點擊右上角網路手動設定, 解除鎖定選擇 eth1 屬性並設定固定 ip( 例如 : ) 第二台機器網路設定要選擇 eth3 設定固定 ip( ) 四 接著編輯 /etc/hosts 輸入 ip 以及主機名稱, 第二台機器也 一 操作準備假設有一台主機, 先在實體主機上安裝 virtualbox, 我們利用 virtualbox 來模擬兩台虛擬的機器, 模擬的作業系統選擇 ubuntu-10.04.4 版本 二 安裝虛擬機器 ( 共要安裝兩台虛擬機器, 安裝時要注意使用者名稱及密碼 如果安裝虛擬機器完成之後, 將機器關閉並且完成以下設定 設定第一個虛擬網路介面卡選擇 NAT 模式可以對外連線, 而第二張虛擬網路卡指定為

More information

开源软件DSpace的安装和维护(清华_邹荣).ppt

开源软件DSpace的安装和维护(清华_邹荣).ppt 开源软件 DSpace 的安装和维护 清华大学图书馆邹荣 2009 年 9 月 DSpace 的安装 dspace-1.5.2 硬件平台主流 PC 服务器或 UNIX/Linux 服务器, 具体配置可以根据数据规模 保存 备份 性能等方面需求配置 操作系统 UNIX-like OS (Linux, HP/UX etc) Microsoft Windows ( 本馆采用的操作系统是 Linux centos

More information

ChinaBI企业会员服务- BI企业

ChinaBI企业会员服务- BI企业 商业智能 (BI) 开源工具 Pentaho BisDemo 介绍及操作说明 联系人 : 杜号权苏州百咨信息技术有限公司电话 : 0512-62861389 手机 :18616571230 QQ:37971343 E-mail:du.haoquan@bizintelsolutions.com 权限控制管理 : 权限控制管理包括 : 浏览权限和数据权限 ( 权限部分两个角色 :ceo,usa; 两个用户

More information

Ioncube Php Encoder 8 3 Crack 4. llamaba octobre traslado General Search colony

Ioncube Php Encoder 8 3 Crack 4. llamaba octobre traslado General Search colony Ioncube Php Encoder 8 3 Crack 4 ->>->>->> DOWNLOAD 1 / 5 2 / 5 Press..the..General..Tools..category4Encrypt..and..protect..files..with..PHP..encoding,..encryption,..ob fuscation..and..licensing... 2016

More information

Flink快速上手(QuickStart)

Flink快速上手(QuickStart) 安装 : 下载并启动 Flink 可以在 Linux Mac OS X 以及 Windows 上运行 为了能够运行 Flink, 唯一的要求是必须安装 Java 7.x 或者更高版本 对于 Windows 用户来说, 请参考 Flink on Windows 文档, 里面介绍了如何在 Window 本地运行 Flink 下载 从下载页面 (http://flink.apache.org/downloads.html)

More information

Blog:Hadoop 系列文章之三:建立 Hadoop 多點分散架構.docx

Blog:Hadoop 系列文章之三:建立 Hadoop 多點分散架構.docx 第七章 : Hadoop 多點分散架構 7-1 建立 Hadoop 多點分散架構 了解如何建立單點分散架構的 Hadoop 之後, 接下來, 我們就要來實作 Hadoop 的多點分散架構, 雖然, 單點分散架構的 Hadoop 就可以運作, 但若真的要讓 Hadoop 發揮完整的功能, 還是需要透過多點的分散架構, 才能真正凸顯出 Hadoop 強大的運算能力, 而這邊就以建立一台 Namenode

More information

Microsoft Word - PS2_linux_guide_cn.doc

Microsoft Word - PS2_linux_guide_cn.doc Linux For $ONY PlayStatioin2 Unofficall General Guide Language: Simplified Chinese First Write By Beter Hans v0.1 Mail: hansb@citiz.net Version: 0.1 本 人 是 菜 鸟 + 小 白 欢 迎 指 正 错 误 之 处, 如 果 您 有 其 他 使 用 心 得

More information

主要内容 一 ZFS 文件系统二 ZFS 文件系统数据完整性 1 一 ZFS 文件系统 ZFS 文件系统简介存储池 2 二 ZFS 文件系统数据完整性什么是数据完整性

主要内容 一 ZFS 文件系统二 ZFS 文件系统数据完整性 1 一 ZFS 文件系统 ZFS 文件系统简介存储池 2 二 ZFS 文件系统数据完整性什么是数据完整性 一 ZFS 文件系统二 ZFS 文件系统数据完整性 老师 : 冯丹 2010 年 10 月 25 日 主要内容 一 ZFS 文件系统二 ZFS 文件系统数据完整性 1 一 ZFS 文件系统 ZFS 文件系统简介存储池 2 二 ZFS 文件系统数据完整性什么是数据完整性 主要内容 一 ZFS 文件系统二 ZFS 文件系统数据完整性 ZFS 文件系统简介存储池 1 一 ZFS 文件系统 ZFS 文件系统简介存储池

More information

CA 性能管理 Data Aggregator 安装指南 - 命令行

CA 性能管理 Data Aggregator 安装指南 - 命令行 CA 性 能 管 理 Data Aggregator 安 装 指 南 - 命 令 行 2.4 本 文 档 包 括 内 嵌 帮 助 系 统 和 以 电 子 形 式 分 发 的 材 料 ( 以 下 简 称 文 档 ), 其 仅 供 参 考,CA 随 时 可 对 其 进 行 更 改 或 撤 销 未 经 CA 事 先 书 面 同 意, 不 得 擅 自 复 制 转 让 翻 印 透 露 修 改 或 转 录 本

More information

05_資源分享-NFS及NIS.doc

05_資源分享-NFS及NIS.doc 5 NFS NFS Server NFS Client NIS NIS 5-0 (Network File System, NFS) Unix NFS mount NFS... Network Information Service NIS Linux NIS NIS NIS / / /etc/passwd /etc/group NFS NIS 5-1 NFS 5-1-1 NFS NFS Network

More information

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 odps-sdk 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基 开放数据处理服务 ODPS SDK SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基础功能的主体接口, 搜索关键词 "odpssdk-core" 一些

More information

合集

合集 Ver 1.0 版 本 目 录 第 一 章 当 大 数 据 遇 上 SSD 01 第 二 章 广 东 移 动 运 用 Hadoop 创 新 应 用 04 第 三 章 第 四 章 第 五 章 第 六 章 第 七 章 第 八 章 第 九 章 第 十 章 如 何 利 用 大 数 据 分 析 提 升 垃 圾 短 信 过 滤 效 果 广 东 电 信 用 大 数 据 重 构 室 内 网 优 大 数 据 提 升

More information

长 安 大 学 硕 士 学 位 论 文 基 于 数 据 仓 库 和 数 据 挖 掘 的 行 为 分 析 研 究 姓 名 : 杨 雅 薇 申 请 学 位 级 别 : 硕 士 专 业 : 计 算 机 软 件 与 理 论 指 导 教 师 : 张 卫 钢 20100530 长安大学硕士学位论文 3 1 3系统架构设计 行为分析数据仓库的应用模型由四部分组成 如图3 3所示

More information

Blog:Hadoop 系列文章之二:建立 Hadoop 單點分散架構.docx

Blog:Hadoop 系列文章之二:建立 Hadoop 單點分散架構.docx 第六章 : Hadoop 單點分散架構 6-1 建立 Hadoop 單點分散架構 由 製作 Hadoop 虛擬模版電腦 一文, 我們已經預先製作了 Hadoop 系統所需要的模版 ( 虛擬 ) 電腦, 這邊, 我們就利用此模版電腦, 從建立單點分散架構, 來開始了解 Hadoop 複製模版 ( 虛擬 ) 電腦 由於模版電腦後續還需要使用, 所以必須保留其原貌, 這邊就利用 LXC 複製 (Clone)

More information

本文由筱驀釹贡献

本文由筱驀釹贡献 本 文 由 筱 驀 釹 贡 献 ppt 文 档 可 能 在 WAP 端 浏 览 体 验 不 佳 建 议 您 优 先 选 择 TXT, 或 下 载 源 文 件 到 本 机 查 看 Linux 操 作 系 统 Linux 操 作 系 统 第 一 部 分 介 绍 与 安 装 Linux 的 由 来 : Linux 的 由 来 : 的 由 来 Linus Torvalds 1.Linux 的 版 本 1.Linux

More information

第 06 期 李祥池 : 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 1 日志 1.1 日志定义 IT 1.2 日志处理方案演进 v1.0 v2.0 Hadoop Storm Spark Hadoop/Storm/Spark v3.0 TB Splunk ELK SI

第 06 期 李祥池 : 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 1 日志 1.1 日志定义 IT 1.2 日志处理方案演进 v1.0 v2.0 Hadoop Storm Spark Hadoop/Storm/Spark v3.0 TB Splunk ELK SI 电子科学技术第 02 卷第 06 期 2015 年 11 月 Electronic Science & Technology Vol.02 No.06 Nov.2015 年 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 李祥池 ( 杭州华三通信技术有限公司北京研究所, 北京,100085) 摘要 : 在大数据时代 对数据平台各组件的运行状态实时监控与运行分析具有重要意义

More information

Spark读取Hbase中的数据

Spark读取Hbase中的数据 Spark 读取 Hbase 中的数据 Spark 和 Flume-ng 整合, 可以参见本博客 : Spark 和 Flume-ng 整合 使用 Spark 读取 HBase 中的数据 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 大家可能都知道很熟悉 Spark 的两种常见的数据读取方式 ( 存放到 RDD 中 ):(1)

More information

7

7 第 2 章 HDFS 文件系统 本章介绍 Hadoop 的核心组成部分 HDFS 文件系统, 包括其原理 安装与配置 管理及外部编程接口等 通过对本章内容的学习, 使读者掌握分布式文件系统的主要结构 HDFS 文件系统的内部运行原理和机制 HDFS 的数据读写方式, 同时, 了解 HDFS 文件系统的数据传输和存储模式 本章最后将详细介绍 Hadoop 的安装和基本配置 学习完本章后, 读者可以搭建自己的

More information

F515_CS_Book.book

F515_CS_Book.book /USB , ( ) / L R 1 > > > 2, / 3 L 1 > > > 2 + - 3, 4 L 1 了解显示屏上显示的图标 Wap 信箱收到一条 Wap push 信息 ( ) GSM 手机已连接到 GSM 网络 指示条越多, 接收质量越好 2 ...........................4.............................. 4 Micro SD (

More information

业 务 与 运 营 Business & Operation (Transform) 加 载 (Load) 至 目 的 端 的 过 程, 该 部 分 在 数 据 挖 掘 和 分 析 过 程 中 为 最 基 础 的 一 部 分 一 个 良 好 的 ETL 系 统 应 该 有 以 下 几 个 功 能 1

业 务 与 运 营 Business & Operation (Transform) 加 载 (Load) 至 目 的 端 的 过 程, 该 部 分 在 数 据 挖 掘 和 分 析 过 程 中 为 最 基 础 的 一 部 分 一 个 良 好 的 ETL 系 统 应 该 有 以 下 几 个 功 能 1 Business & Operation 业 务 与 运 营 大 数 据 技 术 在 精 准 营 销 中 的 应 用 王 小 鹏 北 京 东 方 国 信 科 技 股 份 有 限 公 司 北 京 100102 摘 要 简 要 介 绍 主 流 的 大 数 据 技 术 架 构 和 大 数 据 挖 掘 技 术 ; 阐 述 大 数 据 技 术 在 精 准 营 销 与 维 系 系 统 建 设 中 的 应 用,

More information

序号:001

序号:001 第 一 组 选 题 简 介 序 号 :001 题 目 : 基 于 BPEL 的 网 上 订 餐 系 统 的 设 计 与 实 现 网 上 订 餐 系 统 是 在 互 联 网 上 进 行 菜 单 信 息 发 布 网 上 订 餐 以 及 维 护 客 户 关 系 的 电 子 商 务 系 统, 餐 饮 企 业 可 以 通 过 这 个 电 子 商 务 系 统 发 布 自 己 的 菜 单 信 息 以 供 客 户

More information

投影片 1

投影片 1 FreeBSD A 95/10/11 19:00~21:00 95/10/11 FreeBSD 練 1 Services Setup SSH, lighttpd, PHP, MySQL, FTP, Postfix, phpmyadmin, Blog, Gallery 95/10/11 FreeBSD 練 2 1. 2. # FreeBSD # 3. vi ee joe nano etc 95/10/11

More information

使用Spark SQL读取Hive上的数据

使用Spark SQL读取Hive上的数据 使用 Spark SQL 读取 Hive 上的数据 Spark SQL 主要目的是使得用户可以在 Spark 上使用 SQL, 其数据源既可以是 RDD, 也可以是外部的数据源 ( 比如 Parquet Hive Json 等 ) Spark SQL 的其中一个分支就是 Spark on Hive, 也就是使用 Hive 中 HQL 的解析 逻辑执行计划翻译 执行计划优化等逻辑, 可以近似认为仅将物理执行计划从

More information

3. 恢复完成后构架图 4. 实际部署图 5. 操作步骤 1. 安装 pg a) apt-get install postgresql-9.1 b) :apt-get install postgresql-contrib-9.1

3. 恢复完成后构架图 4. 实际部署图 5. 操作步骤 1. 安装 pg a) apt-get install postgresql-9.1 b) :apt-get install postgresql-contrib-9.1 1. 构架图 本文档由 postgresql 专业群深圳 -GS 初稿, PostgreSQL 群 beta 2015-01-18 日修订 主要工作有 GS 完成 2. 主机宕机后构架图 3. 恢复完成后构架图 4. 实际部署图 5. 操作步骤 1. 安装 pg a) apt-get install postgresql-9.1 b) :apt-get install postgresql-contrib-9.1

More information

スライド 1

スライド 1 LPIC 304 2014 7 27 ( ) 13:30 16:30 LPI-Japan LPI-Japan 2009. All rights reserved. LPI-Japan 2009. All rights reserved. 2 Linux Linus Torvalds Carl ) in LinuxConJapan http://www.lpi.or.jp/news/event/page/20130529_02_report/

More information

《教育信息化前沿》

《教育信息化前沿》 教 育 信 息 化 前 沿 第 13 期 目 录 新 闻 快 递... 1 安 徽 省 亳 州 市 抓 好 五 落 实 为 教 育 信 息 化 提 供 正 能 量...1 梧 州 移 动 推 动 教 育 信 息 化 发 展 举 办 信 息 化 推 介 会... 1 安 徽 省 芜 湖 市 开 展 教 育 信 息 化 试 点 推 动 教 育 现 代 化... 1 山 西 省 晋 中 市 成 为 首 批

More information

0 配置 Host MIB 设备 V ( 简体版 ) 0 Update: 2016/1/30

0 配置 Host MIB 设备 V ( 简体版 ) 0 Update: 2016/1/30 0 配置 Host MIB 设备 V 1.1.2 ( 简体版 ) 0 Update: 2016/1/30 前言 N-Reporter 支持 Host Resource MIB 监控主机 (Host) 状态, 本文件描述 N-Reporter 用户如何配置 Host MIB 设备 文件章节如下 : 1. 配置 Windows Server 2003... 2 1-1.Windows Server 2003

More information

K-HW508K / HW516K K-NL408K / NL416K 最新固件版本 :V G Seagate Pipeline HD2 ST CS - 可用 Seagate Pipeline HD2 ST1000VM002 - 可用 1T Seagate SV35.5

K-HW508K / HW516K K-NL408K / NL416K 最新固件版本 :V G Seagate Pipeline HD2 ST CS - 可用 Seagate Pipeline HD2 ST1000VM002 - 可用 1T Seagate SV35.5 注意请使用 5T 或 6T 的硬盘架 (WJ-ND400/ WJ-HDE400/WJ-HD716/WJ-HD616) 请不要在 5TB 或 6TB 硬盘底部安 2 颗螺丝 ( 下方标记 ), 因为螺丝要长于螺旋孔的深度 顶视图 底视图 1 K-HW508K / HW516K K-NL408K / NL416K 最新固件版本 :V3.200 500G Seagate Pipeline HD2 ST3500312CS

More information

A9RF716.tmp

A9RF716.tmp 1 PART I 1 2 3 4 5 6 7 8 Docker Docker Image Container Repository Docker le Docker Docker 8 1 Docker Linux 2 Docker Docker 3 5 Docker 6 Docker volume 7 8 Docker le Docker le 1 C H A P T E R 1 CPU Data

More information

X713_CS_Book.book

X713_CS_Book.book / / /USB ) ; ; C D ; ; B B 1 >> 2 3 B 1 ( > > ) 了解显示屏上显示的图标 Wap 信箱收到一条 Wap push 信息 GSM GPS ( ) 手机已连接到 GSM 网络 指示条越多, 接收质量越好 GPS 2 ...........................4.............................. 4 Micro SD (

More information

Amazon EC2 是一个 Web 服务, 它允许用户请求具有各种资源 (CPU 磁盘 内存等) 的虚拟机器 用户只需按使用的计算时间付费, 其他事情全交给 Amazon 处理 这些实例 (Amazon Machine Image,AMI) 基于 Linux, 可以运行您需要的任何应用程序或软件

Amazon EC2 是一个 Web 服务, 它允许用户请求具有各种资源 (CPU 磁盘 内存等) 的虚拟机器 用户只需按使用的计算时间付费, 其他事情全交给 Amazon 处理 这些实例 (Amazon Machine Image,AMI) 基于 Linux, 可以运行您需要的任何应用程序或软件 用 Linux 和 Apache Hadoop 进行云计算 IBM Google VMWare 和 Amazon 等公司已经开始提供云计算产品和战略 本文讲解如何使用 Apache Hadoop 构建一个 MapReduce 框架以建立 Hadoop 集群, 以及如何创建在 Hadoop 上运行的示例 MapReduce 应用程序 还将讨论如何在云上设置耗费时间 / 磁盘的任务 云计算简介 近来云计算越来越热门了,

More information

目录 1 本期内容 HBase 简介 HBase 体系结构 Client Zookeeper HMaster HRegion HRegion Server

目录 1 本期内容 HBase 简介 HBase 体系结构 Client Zookeeper HMaster HRegion HRegion Server 细细品味 Hadoop Hadoop 集群 ( 第 11 期 ) 精华集锦 csaxp http://www.xiapistudio.com/ 2012 年 3 月 17 日 目录 1 本期内容... 2 1.1 HBase 简介... 2 1.2 HBase 体系结构... 3 1.2.1 Client... 3 1.2.2 Zookeeper... 3 1.2.3 HMaster... 4 1.2.4

More information

大数据技术基础(2013版)

大数据技术基础(2013版) 大数据技术基础 厦门大学计算机科学系厦门大学计算机系林子雨 ziyulin@xmu.edu.cn 2013 年新版 2013 年 9 月修订版 厦门大学计算机科学系研究生课程 大数据技术基础 第 5 章 HDFS (2013 年新版 ) 林子雨 厦门大学计算机科学系 E-mail: ziyulin@xmu.edu.cn 主页 :http://www.cs.xmu.edu.cn/linziyu 提纲

More information

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO CHAPTER 使用 Hadoop 打造自己的雲 8 8.3 測試 Hadoop 雲端系統 4 Nodes Hadoop Map Reduce Hadoop WordCount 4 Nodes Hadoop Map/Reduce $HADOOP_HOME /home/ hadoop/hadoop-0.20.2 wordcount echo $ mkdir wordcount $ cd wordcount

More information

PowerPoint Presentation

PowerPoint Presentation 立 97 年度 SNMG 練 DNS & BIND enc1215@gmail.com DNS BIND Resolver Named 理 Named 更 DNS DNS Reference 2 DNS DNS 料 domain ip DNS server DNS server 理 DNS server DNS DNS 狀. root name server 理 3 DNS 狀 DNS (2). com

More information

DPark MapReduce (Davies) davies@douban.com 2011/12/07 Velocity China 2011 Douban Douban 5500 Douban 5500 1000G, Douban 5500 1000G, 60+ Douban 5500 1000G, 60+ 200+ Douban 5500 1000G, 60+ 200+ > MooseFS

More information

Microsoft PowerPoint - Big Data rc Sharing掃盲時間.ppt [相容模式]

Microsoft PowerPoint - Big Data rc Sharing掃盲時間.ppt [相容模式] Big Data RC Sharing 大數據掃盲 Service Planner of Enterprise Big Data 大 數 據 服 務 規 劃 師 企 業 大 數 據 課 程 規 劃 依 照 企 業 資 料 流 程 的 特 殊 性, 安 排 合 適 的 課 程 協 助 企 業 導 入 應 用 大 數 據 案 例 :Etu 資 策 會 平 安 保 險 湖 南 國 防 科 技 大 學 等

More information

lect03.ppt

lect03.ppt Linux 操 作 系 统 Linux 基 础 主 要 内 容 q 使 用 Linux q Linux 的 两 种 登 录 方 式 q 字 符 操 作 环 境 和 X Windows 系 统 q Linux 图 形 界 面 基 本 操 作 q Linux 命 令 的 使 用 方 式 q Linux 一 些 常 用 命 令 1 2 一 些 基 本 术 语 u 命 令 (Command) 给 计 算 机

More information

スライド 1

スライド 1 LPIC 304 2015 1 18 ( ) 13:30 16:30 LPI-Japan LPI-Japan 2009. All rights reserved. LPI-Japan 2009. All rights reserved. 2 Linux Linus Torvalds Carl ) in LinuxConJapan nginx Igor Sysoev in Nginx LPI-Japan

More information

通过动态路由协议实现链路备份

通过动态路由协议实现链路备份 通过动态路由协议实现链路备份 实验名称 通过动态路由协议实现链路备份 实验目的 掌握通过在不同链路上配置不同的路由协议实现链路备份 背景描述 你是公司高级网络管理员, 公司内部有一个很重要的服务器所在网段为 192.168.12.0/24, 平常访问通过 R1,R3 的 OSPF 路由协议, 为了保证该网段随时能够访问, 不能因为链路故障出问题, 要求你实现一个备份冗余的功能, 请给予支持 实现功能

More information

財金資訊-84期.indd

財金資訊-84期.indd / Amazon ebay 1994 1995 1999 2005 PChome 2014 (Initial Public Offerings IPO) Kabbage ebay Amazon PayPal Kabbage Facebook Twitter Kabbage 12 / No.84 / 2015.10 (Big Data) (International Data Corporation

More information

Microsoft Word zw

Microsoft Word zw 第 1 章 Android 概述 学习目标 : Android Android Android Studio Android Android APK 1.1 1. 智能手机的定义 Smartphone 2. 智能手机的发展 1973 4 3 PC IBM 1994 IBM Simon PDA PDA Zaurus OS 1996 Nokia 9000 Communicator Nokia 9000

More information

三 安装 openssl 及 freeradius sudo apt-get install openssl sudo apt-get install freeradius 四 openssl 环境准备 1. 在 ubuntu1 和 ubuntu2 的当前用户文件夹 ( 例如 /home/jeff/

三 安装 openssl 及 freeradius sudo apt-get install openssl sudo apt-get install freeradius 四 openssl 环境准备 1. 在 ubuntu1 和 ubuntu2 的当前用户文件夹 ( 例如 /home/jeff/ FortiGate 结合 Openssl + freeradius 实现多级 CA 环境下的无线用户 EAP-TLS 认证 一 EAP-TLS 简介 简而言之, 使用数字证书来保护 radius 认证, 与 802.1x 结合, 可以用数字证书认证无线上网用户, 是最安全的无线认证方法之一 参考 :http://zh.wikipedia.org/wiki/eap#eap-tls 二 实验环境 如上图所示,

More information

信 息 化 研 究

信 息 化 研 究 信 息 化 研 究 2014 年 第 21 期 总 第 70 期 国 家 信 息 中 心 信 息 化 研 究 部 2014 年 12 月 17 日 大 数 据 在 电 子 政 务 中 的 应 用 研 究 杨 道 玲 1 摘 要 大 数 据 技 术 的 发 展, 对 政 府 治 理 和 公 共 服 务 正 产 生 广 泛 而 深 刻 的 影 响 欧 美 发 达 国 家 已 经 开 展 电 子 政 务

More information

Microsoft Word - linux命令及建议.doc

Microsoft Word - linux命令及建议.doc Linux 操 作 系 统 命 令 集 1 基 本 命 令 查 看 系 统 信 息 : uname -a 修 改 密 码 : passwd 退 出 : logout(exit) 获 取 帮 助 : man commands 2 文 件 和 目 录 命 令 显 示 当 前 工 作 目 录 : pwd 改 变 所 在 目 录 : cd cd - 切 换 到 上 一 次 使 用 的 目 录 cd 切 换

More information

静态分析 投放文件 行为分析 互斥量 (Mutexes) 执行的命令 创建的服务 启动的服务 进程 cmd.exe PID: 2520, 上一级进程 PID: 2556 cmd.exe PID: 2604, 上一级进程 PID: 2520 访问的文件 C:\Users\test\AppData\Lo

静态分析 投放文件 行为分析 互斥量 (Mutexes) 执行的命令 创建的服务 启动的服务 进程 cmd.exe PID: 2520, 上一级进程 PID: 2556 cmd.exe PID: 2604, 上一级进程 PID: 2520 访问的文件 C:\Users\test\AppData\Lo 魔盾安全分析报告 分析类型 开始时间 结束时间 持续时间 分析引擎版本 FILE 2016-11-25 00:20:03 2016-11-25 00:22:18 135 秒 1.4-Maldun 虚拟机机器名 标签 虚拟机管理 开机时间 关机时间 win7-sp1-x64 win7-sp1-x64 KVM 2016-11-25 00:20:03 2016-11-25 00:22:18 魔盾分数 0.0

More information

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并 Spark 编译与部署 ( 下 ) --Spark 编译安装 第 1 页共 24 页 目录 1 编译 SPARK... 3 1.1 编译 SPARK(SBT)... 3 1.1.1 安装 git 并编译安装... 3 1.1.2 下载 Spark 源代码并上传... 6 1.1.3 编译代码... 7 1.2 编译 SPARK(MAVEN)... 7 1.2.1 安装 Maven 并配置参数...

More information

目 录(目录名)

目  录(目录名) H3C inode 智 能 客 户 端 安 装 指 导 (Linux) 杭 州 华 三 通 信 技 术 有 限 公 司 http://www.h3c.com.cn 资 料 版 本 :5PW100-20160125 产 品 版 本 :inode PC 7.2 (E0401) Copyright 2016 杭 州 华 三 通 信 技 术 有 限 公 司 及 其 许 可 者 版 权 所 有, 保 留 一

More information

使用MapReduce读取XML文件

使用MapReduce读取XML文件 使用 MapReduce 读取 XML 文件 XML( 可扩展标记语言, 英语 :extensible Markup Language, 简称 : XML) 是一种标记语言, 也是行业标准数据交换交换格式, 它很适合在系统之间进行数据存储和交换 ( 话说 Hadoop H ive 等的配置文件就是 XML 格式的 ) 本文将介绍如何使用 MapReduce 来读取 XML 文件 但是 Had oop

More information

Apache CarbonData集群模式使用指南

Apache CarbonData集群模式使用指南 我们在 Apache CarbonData 快速入门编程指南 文章中介绍了如何快速使用 Apache CarbonData, 为了简单起见, 我们展示了如何在单机模式下使用 Apache CarbonData 但是生产环境下一般都是使用集群模式, 本文主要介绍如何在集群模式下使用 Apache CarbonData 启动 Spark shell 这里以 Spark shell 模式进行介绍,master

More information

目录 1 H3C R4900 G2 服务器可选部件与操作系统兼容性列表 控制卡 GPU 卡 网卡 FC HBA 卡 TPM/TCM 模块 NVMe SSD PCle 加速卡 1-31 i

目录 1 H3C R4900 G2 服务器可选部件与操作系统兼容性列表 控制卡 GPU 卡 网卡 FC HBA 卡 TPM/TCM 模块 NVMe SSD PCle 加速卡 1-31 i 目录 1 H3C R4900 G2 服务器可选部件与操作系统兼容性列表 1-1 1.1 控制卡 1-1 1.2 GPU 卡 1-5 1.3 网卡 1-8 1.4 FC HBA 卡 1-21 1.5 TPM/TCM 模块 1-29 1.6 NVMe SSD PCle 加速卡 1-31 i 1 H3C R4900 G2 服务器可选部件与操作系统兼容性列表 本手册为产品通用资料 对于定制化产品, 请用户以产品实际情况为准

More information

01

01 Zebra Technologies 白皮书 移动打印给仓储运营带来显著优势 综述 RFID RFID (RF) RFID RFID / ROI LAN 采用移动打印机, 享受显而易见的业务成效 - 49.74 28.11 Zebra 2 Zebra Technologies 移动打印机成本效益分析 示例数据固定式打印机移动打印机每年节省资金 10 10 8 8 48 48 3840 3840 15

More information

2014 年 87 月 259 日 K-HW508K / HW516K K-NL408K / NL416K 最新固件版本 :V3.200 容量 供应商 系列 型号 格式 可用性 兼容性能 备注 500G Seagate Pipeline HD2 ST CS - 可用 Seagate Pi

2014 年 87 月 259 日 K-HW508K / HW516K K-NL408K / NL416K 最新固件版本 :V3.200 容量 供应商 系列 型号 格式 可用性 兼容性能 备注 500G Seagate Pipeline HD2 ST CS - 可用 Seagate Pi 纠正点从 2014 年 5 月 12 日的版本开始 我们缺少的 4TB 硬盘的型号 : WJ-ND400 / 和 WJ-HD616K / WJ-716K / WJ-ND400 WJ-HD616K WJ-HD716K 4TB 红 40PURX-64GVNY0 AF OK 4TB 红 40EFRX-68WT0N0 AF OK 纠正点 1 2014 年 87 月 259 日 K-HW508K / HW516K

More information

云 计 算 集 群 架 构 师 高 居 服 务 器 / 系 统 / 运 维 / 架 构 职 业 方 向 的 塔 尖 在 最 活 跃 的 移 动 互 联 网 时 代, 云 端 架 构 师 年 薪 普 遍 超 过 25 万 九 年 三 万 多 名 高 端 学 员, 全 国 唯 一 的 自 主 高 端 成

云 计 算 集 群 架 构 师 高 居 服 务 器 / 系 统 / 运 维 / 架 构 职 业 方 向 的 塔 尖 在 最 活 跃 的 移 动 互 联 网 时 代, 云 端 架 构 师 年 薪 普 遍 超 过 25 万 九 年 三 万 多 名 高 端 学 员, 全 国 唯 一 的 自 主 高 端 成 ULA 尚 观 云 计 算 集 群 架 构 师 ( 零 首 付 )V9.0( 周 末 ) 一 尚 观 教 育 九 年 运 营 35000 学 员, 平 均 月 薪 6258+ 签 法 律 双 保 就 业 协 议, 保 底 薪, 保 就 业, 不 就 业 100% 退 所 有 学 费, 绝 非 就 业 推 荐 协 议 9 年 运 营 9 大 城 市 直 属 校 区 实 力 保 证, 三 万 多 名 已

More information

美國政府推行 大數據的研究與發展計畫, 希望藉著提升從大型複雜的資料中提取知識的能力, 能加快科學和工程的開發並保障國家安全 資料科學與大數據 National Institute of Standards and Technology, NIST Jim Gray NI

美國政府推行 大數據的研究與發展計畫, 希望藉著提升從大型複雜的資料中提取知識的能力, 能加快科學和工程的開發並保障國家安全 資料科學與大數據 National Institute of Standards and Technology, NIST Jim Gray NI 一般報導 大數據與 巨量資料分析 曾龍 我們需要你 資料科學家 來幫助國民建立更好的數位服務 幫助我們揭開更新的創意 幫助我們改善這個國家和全世界 美國總統歐巴馬 在 2012 年 10 月發行的 哈佛商業評 論 中 戴 文 波 特 湯 姆 斯 Thomas H. Davenport 及 帕 蒂 爾 D.J. Patil 發 表 了 一篇文章 描述 21 世紀最性感的職業 資料科學家 Data Scientist:

More information

Beacon 支持平台列表

Beacon 支持平台列表 安 装 指 南 v4.0 www.fusionspy.com www.datasource.cn 2012. 02 Beacon 支 持 平 台 列 表 平 台 列 表 Web TuxAgent WlsAgent Windows2000/xp/2003 Y N/A WebLogic 8.1/9x/10x/11+ AIX 4.3 Y Tuxedo 6.5 ~ 11g WebLogic 8.1/9x/10x/11+

More information

Linux Ubuntu Part Linux Ubuntu Linux UNIX...19 Linux...19 Linux Linux...21 Linux GNU FSF Open So urce.

Linux Ubuntu Part Linux Ubuntu Linux UNIX...19 Linux...19 Linux Linux...21 Linux GNU FSF Open So urce. Linux Ubuntu 10.04 Part 1 17 1 Linux Ubuntu... 18 1-1 Linux... 19 UNIX...19 Linux...19 Linux...20...20 Linux...21 Linux...21 1-2 GNU FSF Open So urce...22 GNU...22 GPL...23...24 1-3 GNU/Linux V.S. Linux...25

More information

2004 Sun Microsystems, Inc Network Circle, Santa Clara, CA U.S.A. Sun Sun Berkeley BSD University of California UNIX X/Open Company, Ltd.

2004 Sun Microsystems, Inc Network Circle, Santa Clara, CA U.S.A. Sun Sun Berkeley BSD University of California UNIX X/Open Company, Ltd. Java Desktop System 2 Sun Microsystems, Inc. 4150 Network Circle Santa Clara, CA 95054 U.S.A. : 817 7758 10 2004 9 2004 Sun Microsystems, Inc. 4150 Network Circle, Santa Clara, CA 95054 U.S.A. Sun Sun

More information

通过Hive将数据写入到ElasticSearch

通过Hive将数据写入到ElasticSearch 我在 使用 Hive 读取 ElasticSearch 中的数据 文章中介绍了如何使用 Hive 读取 ElasticSearch 中的数据, 本文将接着上文继续介绍如何使用 Hive 将数据写入到 ElasticSearch 中 在使用前同样需要加入 elasticsearch-hadoop-2.3.4.jar 依赖, 具体请参见前文介绍 我们先在 Hive 里面建个名为 iteblog 的表,

More information

PowerPoint Presentation

PowerPoint Presentation 利用 Oracle Big Data Connectors 将 Hadoop 与 Oracle 集成 罗海雄甲骨文公司资深技术顾问 1 Copyright 2011, Oracle and/or its affiliates. All rights 以下内容旨在概述产品的总体发展方向 该内容仅供参考, 不可纳入任何合同 该内容不构成提供任何材料 代码或功能的承诺, 并且不应该作为制定购买决策的依据

More information

Azure_s

Azure_s Azure ? Azure Azure Windows Server Database Server Azure Azure Azure Azure Azure Azure Azure Azure OpenSource Azure IaaS Azure VM Windows Server Linux PaaS Azure ASP.NET PHP Node.js Python MS SQL MySQL

More information

计算机网络实验说明

计算机网络实验说明 计算机网络实验说明 龚旭东 电三楼 420 lzgxd@mailustceducn 2011 年 11 月 1 日 龚旭东 (TA) 计算机网络实验说明 2011 年 11 月 1 日 1 / 20 Outline 1 实验系统介绍 实验环境实验流程 2 实验内容编程实验交互实验观察实验 3 一些控制台命令 4 实验报告说明 龚旭东 (TA) 计算机网络实验说明 2011 年 11 月 1 日 2

More information