目录 1 编译 HADOOOP 搭建环境 安装并设置 maven 以 root 用户使用 yum 安装 svn 以 root 用户使用 yum 安装 autoconf automake libtool cmake..

Similar documents
tar -xzf hadoop tar.gz mv hadoop /app 在 Hadoop 目录下创建子目录 在 hadoop 目录下创建 tmp name 和 data 目录 cd /app/hadoop mkdir tmp mkdir

在Fedora上部署Hadoop2.2.0伪分布式平台

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并

程模型,MapReduce 把任务分为 map( 映射 ) 阶段和 reduce( 化简 ) 由于 MapReduce 工作原理的特性, Hadoop 能以并行的方式访问数据, 从而实现快速访问数据 Hbase--HBase 是一个建立在 HDFS 之上, 面向列的 NoSQL 数据库, 用于快速读

Hadoop 2.2.0安装和配置lzo

MapReduce

开源软件DSpace的安装和维护(清华_邹荣).ppt

要 注 意 的 是,Flume 中 对 事 件 的 处 理 不 需 要 带 状 态, 它 的 Scalability 可 以 很 容 易 实 现 3. Manageability:Flume 利 用 ZooKeeper 和 gossip, 保 证 配 置 数 据 的 一 致 性 高 可 用 同 时,

工银瑞信货币市场证券投资基金2008年度第2季度报告

. Outline 编译 Linux 在 QEMU 模拟器上运行制作带 grub 启动的磁盘映像...1 编译 Linux 在 QEMU 模拟器上运行...2 制作带 grub 启动的磁盘映像

内 容 提 要 将 JAVA 开 发 环 境 迁 移 到 Linux 系 统 上 是 现 在 很 多 公 司 的 现 实 想 法, 而 在 Linux 上 配 置 JAVA 开 发 环 境 是 步 入 Linux 下 JAVA 程 序 开 发 的 第 一 步, 本 文 图 文 并 茂 地 全 程 指

深圳市亚可信息技术有限公司 NetWeaver 7.3 EhP1 ABAP on Redhat Enterprise Linux Server 62 for Oracle112 High Availability System Installation Created by

Linux服务器构建与运维管理

腰部酸痛保健法

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0

untitled

资源管理软件TORQUE与作业调度软件Maui的安装、设置及使用

Ioncube Php Encoder 8 3 Crack 4. llamaba octobre traslado General Search colony

Abstract arm linux tool-chain root NET-Start! 2

目录 1 TACHYON 介绍 TACHYON 简介 TACHYON 系统架构 系统架构 Tachyon Master 结构 Tachyon Worker 结构 Tachyon

投影片 1

使用Spark SQL读取Hive上的数据

Windows 2000 Server for T100

三 開啟第一台機器, 點擊右上角網路手動設定, 解除鎖定選擇 eth1 屬性並設定固定 ip( 例如 : ) 第二台機器網路設定要選擇 eth3 設定固定 ip( ) 四 接著編輯 /etc/hosts 輸入 ip 以及主機名稱, 第二台機器也

目录 一 安装配置步骤 虚拟机的准备工作 安装和配置 JDK 环境 配置 SSH 免密码登录 编辑 etc/hosts 文件 配置 hadoop 将 master 上的 Hadoop 安装包拷

PowerPoint 演示文稿

对于 Hadoop 来说, 在 HDFS 看来, 节点分为 Namenode 和 Datanode, 其中 Namenode 只有一个,Datanode 可以是很多 ; 在 MapReduce 看来, 节点又分为 Jobtracker 和 Tasktracker, 其中 Jobtracker 只有一

Outline 制作带 grub 启动的磁盘映像 利用 qemu+gdb 来调试 linux

Some experiences in working with Madagascar: installa7on & development Tengfei Wang, Peng Zou Tongji university

投影片 1

RunPC2_.doc

puppet 简介 3 puppet 是什么 3 Hello world 4 puppet 安装 5 debian 系发行版安装 puppet 5 redhat 系发行版安装 puppet 5 源代码安装 puppet 6 配置 c/s 模式的 puppet 试验环境 6 puppet 语法 8 资

lect03.ppt

投影片 1

1 重 要 提 示 基 金 管 理 人 的 董 事 会 及 董 事 保 证 本 报 告 所 载 资 料 不 存 在 虚 假 记 载 误 导 性 陈 述 或 重 大 遗 漏, 并 对 其 内 容 的 真 实 性 准 确 性 和 完 整 性 承 担 个 别 及 连 带 责 任 基 金 托 管 人 广 发

目标还包括 : 建立一个用户和贡献者社区, 使代码不必依赖于特定贡献者的参与或任何特定公司和大学的资金 专注于实际用例, 这与高新技术研究及未经验证的技巧相反 提供高质量文章和示例 3 搭建 Mahout 环境 3.1 部署过程 下载 Mahout 在 Apache 下载最新的 Maho

untitled

规模数据的机制 Hive 定义了简单的类 SQL 查询语言, 称为 HQL, 它允许熟悉 SQL 的用户查询数据 同时, 这个语言也允许熟悉 MapReduce 开发者的开发自定义的 Mapper 和 Reducer 来处理内建的 Mapper 和 Reducer 无法完成的复杂的分析工作 2.1

目 录(目录名)

工银瑞信货币市场证券投资基金2008年度第2季度报告

HBase_train_Stark

Flink快速上手(QuickStart)

一 Grass 是 什 么 1 简 介 GRASS (Geographic Resources Analysis Support System, 地 理 资 源 分 析 支 持 系 统 ) 是 最 负 盛 名 的 开 源 地 理 信 息 系 统 (GIS) 以 下 是 它 的 一 些 特 点 : 1

内 容 简 介 本 书 是 一 本 关 于 语 言 程 序 设 计 的 教 材, 涵 盖 了 语 言 的 基 本 语 法 和 编 程 技 术, 其 中 包 含 了 作 者 对 语 言 多 年 开 发 经 验 的 总 结, 目 的 是 让 初 学 的 读 者 感 受 到 语 言 的 魅 力, 并 掌

Blog:Hadoop 系列文章之三:建立 Hadoop 多點分散架構.docx

第 3 章 LAMP 的 基 本 安 装 与 配 置 3 LAMP 的 基 本 安 装 与 配 置 知 识 点 Apache 的 安 装 与 配 置 MySQL 的 安 装 与 配 置 PHP 的 安 装 与 配 置 LAMP 是 Linux + Apache + MySQL + PHP 的 首 字

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7.

Pchome

投影片 1

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示

1 重 要 提 示 基 金 管 理 人 的 董 事 会 及 董 事 保 证 本 报 告 所 载 资 料 不 存 在 虚 假 记 载 误 导 性 陈 述 或 重 大 遗 漏, 并 对 其 内 容 的 真 实 性 准 确 性 和 完 整 性 承 担 个 别 及 连 带 责 任 基 金 托 管 人 中 国

0 配置 Host MIB 设备 V ( 简体版 ) 0 Update: 2016/1/30

本文由筱驀釹贡献

untitled

培 训 机 构 介 绍 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培

(Load Project) (Save Project) (OffLine Mode) (Help) Intel Hex Motor

Microsoft Word - linux命令及建议.doc

Chapter 2

電機工程系認可證照清單 /7/1

白 皮 书 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 目 录 要 点 概 述...1 业 务 挑 战...2 Hadoop* 分 发 版 注 意 事 项...3 Hadoop* 基 础 架 构 注 意 事 项

Cygwin Cygwin windows Linux Cygwin.dll Windows Linux API Linux Windows Linux 2

项目编号 TeamDR1.0 课题数据宝本地部署版安 装手册 中国科学院计算机网络信息中心 科学数据中心数据技术组 2015 年 8 月

投影片 1

赔 偿 ), 保 险 公 司 在 其 承 保 范 围 内 承 担 赔 偿 责 任 ;2 案 件 受 理 费 由 四 被 告 承 担 为 支 持 其 诉 讼 主 张, 原 告 江 明 相 在 举 证 期 限 内 向 本 院 提 供 了 下 列 证 据 材 料 供 法 庭 组 织 质 证 : 1 鉴 定

Microsoft Word - RAP CHI.doc

NEXT SDT2.51 C:\ARM251 SDT2.51 ARM SDT 2.51 ARM PROJECT MANAGER SDT 2

OTRS用户手册

A9RF716.tmp

「人名權威檔」資料庫欄位建置表

Apache CarbonData集群模式使用指南

特别提示 : 徆多网友把这两条规则添加到防火墙配置的最后一行, 导致防火墙启劢失败, 正确的应该是添加到默认的 22 端口这条规则的下面 添加好之后防火墙规则如下所示 : ######################################################### # Fire

A Preliminary Implementation of Linux Kernel Virus and Process Hiding

Openmoko


ebook70-5

菩提道次第廣論

路 上 沒 說 話, 車 子 被 爸 離 去 後 開 走 了, 沒 什 麼 變, 除 了 一 股 淡 淡 的 香 味, 我 不 太 習 慣, 像 空 氣 中 的 粉 塵, 左 飄 右 飄, 光 中 飛 舞 我 沒 提, 看 車 窗 外, 外 面 不 太 有 趣, 我 只 是 沒 事 幹, 我 們 本

繁 華 國 小 101 學 年 母 親 節 感 恩 惜 福 - 跳 蚤 市 場 暨 科 學 闖 關 遊 戲 親 子 活 動 實 施 計 畫 一 依 據 : 本 校 101 學 年 度 校 務 計 畫 及 行 事 曆 二 目 的 : 1. 培 養 學 生 感 恩 惜 物 知 福 惜 福 的 節 儉 觀

台 中 市 北 屯 區 東 山 里 橫 坑 9 林 志 明 巷 89-5 菜 豆 菜 大 漿 果 菜 豆 菜 大 漿 果 小 漿 果 核 果 柑 桔 無 陳 錦 生 新 竹 市 香 山 區


育儿小故事(四)

ssh-keygen -t rsa

ebook8-30

Windows 2000 Server for T100

Microsoft Word - PS2_linux_guide_cn.doc

Oracle Solaris Studio makefile C C++ Fortran IDE Solaris Linux C/C++/Fortran IDE "Project Properties" IDE makefile 1.

附录J:Eclipse教程

Linux 操作系统课程社区创作

ebook 185-6

ORACLE Enterprise Linux 6.3下ORACLE11g的安装

2



Linux操作系统

CDH5.3.6 离线安装手册 目录 一 机器准备...1 二 环境准备 网络配置 ssh 免密码登录 关闭防火墙 禁用 SELINUX 安装 JDK 并设置 JAVA_HOME 系统时间同步 设置文件打开数目和

2004 Sun Microsystems, Inc Network Circle, Santa Clara, CA U.S.A. Sun Sun Berkeley BSD UNIX X/Open Company, Ltd. / SunSun MicrosystemsSun

Microsoft Word - 三峽鎮衛生所_3_-張家宸.李永繁.doc

Microsoft Word - 武漢大學交流營心得_黃莉云_.doc

Spark读取Hbase中的数据

Transcription:

Spark 编译与部署 ( 中 ) --Hadoop 编译安装 第 1 页共 28 页

目录 1 编译 HADOOOP... 3 1.1 搭建环境... 3 1.1.1 安装并设置 maven... 3 1.1.2 以 root 用户使用 yum 安装 svn... 4 1.1.3 以 root 用户使用 yum 安装 autoconf automake libtool cmake... 5 1.1.4 以 root 用户使用 yum 安装 ncurses-devel... 6 1.1.5 以 root 用户使用 yum 安装 openssl-devel... 7 1.1.6 以 root 用户使用 yum 安装 gcc*... 8 1.1.7 安装并设置 protobuf... 8 1.2 编译 HADOOP... 11 1.2.1 下载 Hadoop 源代码 Release2.2.0... 11 1.2.2 编译 Hadoop 源代码... 11 1.2.3 验证编译是否成功... 12 2 安装 HADOOP... 13 2.1 配置准备... 13 2.1.1 上传并解压 Hadoop 安装包... 13 2.1.2 在 Hadoop 目录下创建子目录... 14 2.1.3 配置 hadoop-env.sh... 14 2.1.4 配置 yarn-env.sh... 15 2.1.5 配置 core-site.xml... 16 2.1.6 配置 hdfs-site.xml... 18 2.1.7 配置 mapred-site.xml... 19 2.1.8 配置 yarn-site.xml... 21 2.1.9 配置 Slaves 文件... 22 2.1.10 向各节点分发 Hadoop 程序... 22 2.2 启动部署... 23 2.2.1 格式化 NameNode... 23 2.2.2 启动 HDFS... 24 2.2.3 验证 HDFS 启动... 24 2.2.4 启动 YARN... 24 2.2.5 验证 YARN 启动... 25 3 问题解决... 25 3.1 CENTOS 64BIT 安装 HADOOP2.2.0 中出现文件编译位数异常... 25 3.2 编译 HADOOP2.2.0 出现代码异常... 26 3.3 安装 HADOOP2.2.0 出现不能找到 /ETC/HADOOP 目录异常... 28 第 2 页共 28 页

1 编译 Hadooop Spark 编译与部署 ( 中 ) 1.1 搭建环境 1.1.1 安装并设置 maven 1. 下载 maven 安装包, 建议安装 3.0 以上版本, 本次安装选择的是 maven3.0.5 的二进制包, 下载地址如下 http://mirror.bit.edu.cn/apache/maven/maven-3/ 2. 使用 ssh 工具把 maven 包上传到 /home/hadoop/upload 目录 3. 解压缩 apache-maven-3.0.5-bin.tar.gz 包 $tar -zxvf apache-maven-3.0.5-bin.tar.gz 第 3 页共 28 页

4. 把 apache-maven-3.0.5 目录移到 /usr/local 目录下 $sudo mv apache-maven-3.0.5 /usr/local 5. 在 /etc/profile 配置文件中加入如下设置 export PATH=$JAVA_HOME/bin:/usr/local/apache-maven-3.0.5/bin:$PATH 6. 编辑 /etc/profile 文件并验证配置是否成功 : $source /etc/profile $mvn -version 1.1.2 以 root 用户使用 yum 安装 svn #yum install svn 第 4 页共 28 页

1.1.3 以 root 用户使用 yum 安装 autoconf automake libtool cmake #yum install autoconf automake libtool cmake 第 5 页共 28 页

1.1.4 以 root 用户使用 yum 安装 ncurses-devel #yum install ncurses-devel 第 6 页共 28 页

1.1.5 以 root 用户使用 yum 安装 openssl-devel #yum install openssl-devel 第 7 页共 28 页

1.1.6 以 root 用户使用 yum 安装 gcc* #yum install gcc* 1.1.7 安装并设置 protobuf 注 : 该程序包需要在 gcc 安装完毕后才能安装, 否则提示无法找到 gcc 编译器 1. 下载 protobuf 安装包下载链接为 : https://code.google.com/p/protobuf/downloads/list 第 8 页共 28 页

2. 使用 ssh 工具把 protobuf-2.5.0.tar.gz 包上传到 /home/hadoop/downloads 目录 3. 解压安装包 $tar -zxvf protobuf-2.5.0.tar.gz 第 9 页共 28 页

4. 把 protobuf-2.5.0 目录转移到 /usr/local 目录下 $sudo mv protobuf-2.5.0 /usr/local 5. 进行目录运行命令进入目录以 root 用户运行如下命令 : #./configure #make #make check #make install 6. 验证是否安装成功 运行成功之后, 通过如下方式来验证是否安装成功 #protoc 第 10 页共 28 页

1.2 编译 Hadoop 1.2.1 下载 Hadoop 源代码 Release2.2.0 通过 SVN 获取 Hadoop2.2.0 源代码, 在 /home/hadoop/downloads 目录下命令 : $svn checkout http://svn.apache.org/repos/asf/hadoop/common/tags/release-2.2.0 获取时间较长, 大小约 75.3M 1.2.2 编译 Hadoop 源代码 :) 由于 hadoop2.2.0 在 svn 中 pom.xml 有点问题, 会造成编译中出错, 可先参考 3.2 修复该问题 在 Hadoop 源代码的根目录执行如下命令 : $mvn package -Pdist,native -DskipTests Dtar ( 注意 : 这行命令需要手工输入, 如果复制执行会报异常!) 耗费的时间较长, 总共花费了 32 分钟, 在编译过程需要联网, 从网络中下载所需要的资料 第 11 页共 28 页

1.2.3 验证编译是否成功 到 hadoop-dist/target/hadoop-2.2.0/lib/native 目录中查看 libhadoop.so.1.0.0 属性 : $file./libhadoop.so.1.0.0 该文件为 ELF 64-bit LSB 则表示文件成功编译为 64 位 第 12 页共 28 页

在 hadoop-dist/target 目录中已经打包好了 hadoop-2.2.0.tar.gz, 该文件作为 Hadoop2.X 64 位安装包 2 安装 Hadoop 2.1 配置准备 2.1.1 上传并解压 Hadoop 安装包 1. 在 Apache 网站上提供 Hadoop2.X 安装包只支持 32 位操作系统安装, 在 64 位服务器安装会出现 4.1 的错误异常 我们使用上一步骤编译好的 hadoop-2.2.0.tar.gz 文件作为安装包 ( 也可以从网上下载 native 文件夹或者打包好的 64 位 hadoop 安装包 ), 使用 " Spark 编译与部署 ( 上 )" 中 1. 3.1 介绍的工具上传到 /home/hadoop/upload 目录下 2. 在主节点上解压缩 $cd /home/hadoop/upload/ $tar -xzf hadoop-2.2.0.tar.gz 第 13 页共 28 页

3. 把 hadoop-2.2.0 目录移到 /app/hadoop 目录下 $ mv hadoop-2.2.0 /app/hadoop $ls /app/hadoop 2.1.2 在 Hadoop 目录下创建子目录 hadoop 用户在 /app/hadoop/hadoop-2.2.0 目录下创建 tmp name 和 data 目录 $cd /app/hadoop/hadoop-2.2.0/ $mkdir tmp $mkdir name $mkdir data $ll 2.1.3 配置 hadoop-env.sh 1. 打开配置文件 hadoop-env.sh $cd /app/hadoop/hadoop-2.2.0/etc/hadoop $sudo vi hadoop-env.sh 第 14 页共 28 页

2. 加入配置内容, 设置 JAVA_HOME 和 PATH 路径 export JAVA_HOME=/usr/lib/java/jdk1.7.0_55 export PATH=$PATH:/app/hadoop/hadoop-2.2.0/bin 3. 编译配置文件 hadoop-env.sh, 并确认生效 $source hadoop-env.sh $hadoop version 2.1.4 配置 yarn-env.sh 1. 在 /app/hadoop/hadoop-2.2.0/etc/hadoop 打开配置文件 yarn-env.sh $cd /app/hadoop/hadoop-2.2.0/etc/hadoop $sudo vi yarn-env.sh 第 15 页共 28 页

2. 加入配置内容, 设置 JAVA_HOME 路径 export JAVA_HOME=/usr/lib/java/jdk1.7.0_55 3. 编译配置文件 yarn-env.sh, 并确认生效 $source yarn-env.sh 2.1.5 配置 core-site.xml 1. 使用如下命令打开 core-site.xml 配置文件 $sudo vi core-site.xml 第 16 页共 28 页

2. 在配置文件中, 按照如下内容进行配置 <configuration> <name>fs.default.name</name> <value>hdfs://hadoop1:9000</value> <name>fs.defaultfs</name> <value>hdfs://hadoop1:9000</value> <name>io.file.buffer.size</name> <value>131072</value> <name>hadoop.tmp.dir</name> <value>file:/app/hadoop/hadoop-2.2.0/tmp</value> <description>abase for other temporary directories.</description> <name>hadoop.proxyuser.hduser.hosts</name> <value>*</value> <name>hadoop.proxyuser.hduser.groups</name> <value>*</value> 第 17 页共 28 页

</configuration> 2.1.6 配置 hdfs-site.xml 1. 使用如下命令打开 hdfs-site.xml 配置文件 $sudo vi hdfs-site.xml 2. 在配置文件中, 按照如下内容进行配置 <configuration> <name>dfs.namenode.secondary.http-address</name> <value>hadoop1:9001</value> <name>dfs.namenode.name.dir</name> <value>file:/app/hadoop/hadoop-2.2.0/name</value> 第 18 页共 28 页

<name>dfs.datanode.data.dir</name> <value>file:/app/hadoop/hadoop-2.2.0/data</value> <name>dfs.replication</name> <value>2</value> <name>dfs.webhdfs.enabled</name> <value>true</value> </configuration> 2.1.7 配置 mapred-site.xml 1. 默认情况下不存在 mapred-site.xml 文件, 可以从模板拷贝一份 $cp mapred-site.xml.template mapred-site.xml 第 19 页共 28 页

2. 使用如下命令打开 mapred-site.xml 配置文件 $sudo vi mapred-site.xml 3. 在配置文件中, 按照如下内容进行配置 <configuration> <name>mapreduce.framework.name</name> <value>yarn</value> <name>mapreduce.jobhistory.address</name> <value>hadoop1:10020</value> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop1:19888</value> </configuration> 第 20 页共 28 页

2.1.8 配置 yarn-site.xml 1. 使用如下命令打开 yarn-site.xml 配置文件 $sudo vi yarn-site.xml 2. 在配置文件中, 按照如下内容进行配置 <configuration> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.shufflehandler</value> <name>yarn.resourcemanager.address</name> <value>hadoop1:8032</value> <name>yarn.resourcemanager.scheduler.address</name> <value>hadoop1:8030</value> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hadoop1:8031</value> <name>yarn.resourcemanager.admin.address</name> 第 21 页共 28 页

<value>hadoop1:8033</value> <name>yarn.resourcemanager.webapp.address</name> <value>hadoop1:8088</value> </configuration> 2.1.9 配置 Slaves 文件使用 $sudo vi slaves 打开从节点配置文件, 在文件中加入 hadoop1 hadoop2 hadoop3 2.1.10 向各节点分发 Hadoop 程序 1. 确认 hadoop2 和 hadoop3 节点 /app/hadoop 所属组和用户均为 hadoop, 然后进入 hadoop1 机器 /app/hadoop 目录, 使用如下命令把 hadoop 文件夹复制到 hadoop2 和 hadoop3 机器 第 22 页共 28 页

$cd /app/hadoop $scp -r hadoop-2.2.0 hadoop@hadoop2:/app/hadoop/ $scp -r hadoop-2.2.0 hadoop@hadoop3:/app/hadoop/ 2. 在从节点查看是否复制成功 2.2 启动部署 2.2.1 格式化 NameNode $cd /app/hadoop/hadoop-2.2.0/ $./bin/hdfs namenode -format 第 23 页共 28 页

2.2.2 启动 HDFS $cd /app/hadoop/hadoop-2.2.0/sbin $./start-dfs.sh 如果服务器操作系统为 32 位时, 出现问题 3.1 异常, 可以参考解决 2.2.3 验证 HDFS 启动 此时在 hadoop1 上面运行的进程有 :NameNode SecondaryNameNode 和 DataNode hadoop2 和 hadoop3 上面运行的进程有 :NameNode 和 DataNode 2.2.4 启动 YARN $cd /app/hadoop/hadoop-2.2.0/sbin $./start-yarn.sh 第 24 页共 28 页

2.2.5 验证 YARN 启动 此时在 hadoop1 上运行的进程有 :NameNode SecondaryNameNode DataNode NodeManager 和 ResourceManager hadoop2 和 hadoop3 上面运行的进程有 :NameNode DataNode 和 NodeManager 3 问题解决 3.1 CentOS 64bit 安装 Hadoop2.2.0 中出现文件编译位数异常 在安装 hadoop2.2.0 过程中出现如下异常 :Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 第 25 页共 28 页

通过分析是由于 lib/native 目录中有些文件是在 32 位编译, 无法适应 CentOS 64 位环境造成 有两种办法解决 : 重新编译 hadoop, 然后重新部署 暂时办法是修改配置, 忽略有问题的文件 3.2 编译 Hadoop2.2.0 出现代码异常 目前的 2.2.0 的 Source Code 压缩包解压出来的 code 有个 bug 需要 patch 后才能编译 否 则编译 hadoop-auth 会提示下面错误 : [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:2.5.1:testcompile (default-testcompile) on project hadoop-auth: Compilation failure: Compilation failure: [ERROR] /home/hadoop/downloads/release-2.2.0/hadoop-common-project/hadoop-auth/src/test/java/org /apache/hadoop/security/authentication/client/authenticatortestcase.java:[88,11] error: cannot access AbstractLifeCycle [ERROR] class file for org.mortbay.component.abstractlifecycle not found [ERROR] /home/hadoop/downloads/release-2.2.0/hadoop-common-project/hadoop-auth/src/test/java/org /apache/hadoop/security/authentication/client/authenticatortestcase.java:[96,29] error: cannot access LifeCycle [ERROR] class file for org.mortbay.component.lifecycle not found 第 26 页共 28 页

直接修改 hadoop-common-project/hadoop-auth/pom.xml, 其实就是少了一个包, 添加一个 dependency: <dependency> <groupid>org.mortbay.jetty</groupid> <artifactid>jetty-util</artifactid> <scope>test</scope> </dependency> 第 27 页共 28 页

3.3 安装 Hadoop2.2.0 出现不能找到 /etc/hadoop 目录异常 在安装过程中启动 HDFS 出现如下错误 : 2015-01-14 22:55:16,076 WARN [main] util.nativecodeloader (NativeCodeLoader.java:<clinit>(62)) - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable] Error: Cannot find configuration directory: /etc/hadoop Error: Cannot find configuration directory: /etc/hadoop 127.0.0.1 localhost 改为 192.168.0.61 localhost 重启机器即可 第 28 页共 28 页