1 汉水大数据操作系统企业版 7.0 快速入门 本文宗旨 : 本文为帮助新手从零开始在虚拟机中安装部署伪分布式 hadoop 大数据集群, 便于学习大数据开发的相关技术 不适合在企业级环境中应用, 如需要部署分布式企业级 hadoop 集群请跟产品销售联系, 联系方式 : 版

Similar documents
在Fedora上部署Hadoop2.2.0伪分布式平台

tar -xzf hadoop tar.gz mv hadoop /app 在 Hadoop 目录下创建子目录 在 hadoop 目录下创建 tmp name 和 data 目录 cd /app/hadoop mkdir tmp mkdir

目录 1 编译 HADOOOP 搭建环境 安装并设置 maven 以 root 用户使用 yum 安装 svn 以 root 用户使用 yum 安装 autoconf automake libtool cmake..

Hadoop2.2.0完全分布式集群平台安装与设置

ssh-keygen -t rsa

在Windows上安装Hadoop

安装 nginx 添加 nginx 源 命令 :rpm -ivh gx.noarch.rpm 安装 nginx 命令 :yum install

一 登录 crm Mobile 系统 : 输入 ShijiCare 用户名和密码, 登录系统, 如图所示 : 第 2 页共 32 页

程模型,MapReduce 把任务分为 map( 映射 ) 阶段和 reduce( 化简 ) 由于 MapReduce 工作原理的特性, Hadoop 能以并行的方式访问数据, 从而实现快速访问数据 Hbase--HBase 是一个建立在 HDFS 之上, 面向列的 NoSQL 数据库, 用于快速读

深圳市亚可信息技术有限公司 NetWeaver 7.3 EhP1 ABAP on Redhat Enterprise Linux Server 62 for Oracle112 High Availability System Installation Created by

0 配置 Host MIB 设备 V ( 简体版 ) 0 Update: 2016/1/30

安装 Nginx 命令 :yum install -y nginx 接着将 Nginx 设置为开机启动, 输入命令 :chkconfig nginx on Web 默认根目录为 :/usr/share/nginx/html/ 开放 80 端口 :iptables -I INPUT -p tcp --

Linux服务器构建与运维管理

对于 Hadoop 来说, 在 HDFS 看来, 节点分为 Namenode 和 Datanode, 其中 Namenode 只有一个,Datanode 可以是很多 ; 在 MapReduce 看来, 节点又分为 Jobtracker 和 Tasktracker, 其中 Jobtracker 只有一

Linux操作系统

Ubuntu和CentOS如何配置SSH使得无密码登陆

目录 一 安装配置步骤 虚拟机的准备工作 安装和配置 JDK 环境 配置 SSH 免密码登录 编辑 etc/hosts 文件 配置 hadoop 将 master 上的 Hadoop 安装包拷

Microsoft Word - install_manual-V _CN.docx

MapReduce

Microsoft Word - 2

手册 doc

坚果云企业版私有云安装指南

本文由筱驀釹贡献

客户端虚拟机使用说明

目 录(目录名)

Rocky 定制安装手册 1. 通过安装光盘或 U 盘启动凝思科技公司出品的 linx 系统, 如图 1 所示 图 1: 安装光盘的启动画面 2. 选择 Advanced options 菜单项并回车, 如图 2 所示 图 2: 出现电网定制自动安装的画面 -1-

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc

基于 VirtualBox 的 Linux 开发环境搭建手册 基于 VirtualBox 的 Linux 开发环境搭建说明 V1.0 第 1 页 / 共 22 页

快 速 入 门 (Linux) 概 述 文 档 目 的 本 文 档 介 绍 了 如 何 快 速 创 建 Linux 系 统 实 例 远 程 连 接 实 例 部 署 环 境 等 旨 在 引 导 您 一 站 式 完 成 实 例 的 创 建 登 录 和 快 速 环 境 部 署 云 服 务 器 ECS 实

大数据技术原理与应用

Microsoft Word - PS2_linux_guide_cn.doc

Chapter #

2004 Sun Microsystems, Inc Network Circle, Santa Clara, CA U.S.A. Sun Sun Berkeley BSD University of California UNIX X/Open Company, Ltd.

lect03.ppt

Hadoop 手册

达内Linux云计算学院

.. 3 N

目录 1 简介 1 2 配置前提 1 3 配置环境 服务器 软件 1 4 配置指导 组网拓扑 操作步骤 Red Hat Enterprise Linux Server Red Hat Enterprise Lin

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0

2017ÅàÑø·½°¸

业 务 与 运 营 Business & Operation (Transform) 加 载 (Load) 至 目 的 端 的 过 程, 该 部 分 在 数 据 挖 掘 和 分 析 过 程 中 为 最 基 础 的 一 部 分 一 个 良 好 的 ETL 系 统 应 该 有 以 下 几 个 功 能 1

白 皮 书 英 特 尔 IT 部 门 实 施 Apache Hadoop* 英 特 尔 分 发 版 软 件 的 最 佳 实 践 目 录 要 点 概 述...1 业 务 挑 战...2 Hadoop* 分 发 版 注 意 事 项...3 Hadoop* 基 础 架 构 注 意 事 项

Microsoft PowerPoint - 03.IPv6_Linux.ppt [相容模式]

三 開啟第一台機器, 點擊右上角網路手動設定, 解除鎖定選擇 eth1 屬性並設定固定 ip( 例如 : ) 第二台機器網路設定要選擇 eth3 設定固定 ip( ) 四 接著編輯 /etc/hosts 輸入 ip 以及主機名稱, 第二台機器也

MASQUERADE # iptables -t nat -A POSTROUTING -s / o eth0 -j # sysctl net.ipv4.ip_forward=1 # iptables -P FORWARD DROP #

NeoGate_TG_Series_UserManual_en

开源软件DSpace的安装和维护(清华_邹荣).ppt

Flink快速上手(QuickStart)

专业导论 实验指导书 / 实验四 : 安装操作系统 -Windows 实验四 : 安装操作系统 -Windows 一 实验目的 1 掌握 Windows 操作系统的安装流程 ; 2 了解虚拟机软件的基本概念及使用方法; 3 掌握在 Oracle VM VirtualBox 虚拟机的创建 ; 4 掌握

CDH5.3.6 离线安装手册 目录 一 机器准备...1 二 环境准备 网络配置 ssh 免密码登录 关闭防火墙 禁用 SELINUX 安装 JDK 并设置 JAVA_HOME 系统时间同步 设置文件打开数目和

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO

Blog:Hadoop 系列文章之三:建立 Hadoop 多點分散架構.docx

Linux操作系统

untitled

目 录(目录名)

考 試 日 期 :2016/04/24 教 室 名 稱 :602 電 腦 教 室 考 試 時 間 :09: 二 技 企 管 一 胡 宗 兒 中 文 輸 入 四 技 企 四 甲 林 姿 瑄 中 文 輸 入 二 技 企 管 一


短信服务器 安装向导 深圳市得伯乐科技有限公司 年 4 月 3 日

投影片 1

PowerPoint Presentation

Blog:Hadoop 系列文章之二:建立 Hadoop 單點分散架構.docx

投影片 1

发行版版本号数据宽度内核版本桌面服务器移动终端发行周期优势 Ubuntu bit 3.2.? 6 个月 bit 3.2.? 6 个月 请查阅相关资料完成表 1-1 的填写, 至少填写 6 种发行版, 并将结果填写到实验报告册中 3 通过查看官方网站的信息, 自主设计表

スライド 1

第一章

Mohamed

スライド 1

untitled

秘密

E11701


TCA Linux 相容性認證測試流程步驟

64 [ 46 ] (p297) 1924 :? [ 47 ] (p570) ; ; ; ; ; ; ; ; ; ; ; [ 11 ]; [ 35 ] [ 49 ] [ 32 ] ( ) [ 48 ] (p 425) [ 50 ] (p 670 6

正文.indd

关于建立境内违法互联网站黑名单管理制度的通知

<4D F736F F D20D0C5CFA2BBAFB7A2D5B9D6D8B5E3D7A8CFEEB9E6BBAE2E646F63>

? 這 全 都 是 市 政 府 提 供 給 我 的 資 料 低 底 盤 公 車 計 畫 96 年 預 算 新 台 幣 4,500 萬 元 97 年 預 算 新 台 幣 1 億 6,500 萬 元 98 年 預 算 新 台 幣 3 億 2,300 萬 元, 共 有 307 台 低 底 盤 公 車,99

untitled








1

图 2: 出现电网定制自动安装的画面 3. 选择 State Grid automated install 菜单项并回车, 如图 3 所示, 建议在安装过程中创建 1 个普通用户, 以便于使用凝思资源控制器对该用户进行管理 输入一个普通用户名, 如 :d5000 或 ems 或 oms 或 king

自由軟體社群發展經驗與 Linux認證介紹

大连软~1

静态分析 投放文件 行为分析 互斥量 (Mutexes) 执行的命令 创建的服务 启动的服务 进程 cmd.exe PID: 2520, 上一级进程 PID: 2556 cmd.exe PID: 2604, 上一级进程 PID: 2520 访问的文件 C:\Users\test\AppData\Lo

<4D F736F F D B8BDBCFE332D3120C8EDBCFEB9A4B3CCCBB6CABFC5E0D1F8B7BDB0B8>

CentOS7.5 集群安装 Sophon2.0 一 环境情况 集群规划操作系统 外网 IP 内网 IP 内存 磁盘 角色 用户 / 密码 GB 500GB Master xxx CentOS7.5 无 GB 500GB Slav

目 录 1 爱 游 戏 业 务 及 游 戏 大 厅 ( 客 户 端 ) 简 介 什 么 是 爱 游 戏 业 务 什 么 是 游 戏 大 厅 ( 客 户 端 ) 游 戏 大 厅 ( 客 户 端 ) 主 要 功 能 游 戏 大 厅

BYOD IP+Optical (IP NGN) API 4. End-to-End (Service Aware) 5. IP NGN (IP Next Generation Network) ( ) Prime Carrier Management Access Edge Co

Microsoft Word zw

2015 年 度 收 入 支 出 决 算 总 表 单 位 名 称 : 北 京 市 朝 阳 区 卫 生 局 单 位 : 万 元 收 入 支 出 项 目 决 算 数 项 目 ( 按 功 能 分 类 ) 决 算 数 一 财 政 拨 款 一 一 般 公 共 服 务 支 出 二

目 录 第 一 部 分 档 案 局 概 况 一 主 要 职 责 二 部 门 决 算 单 位 构 成 第 二 部 分 档 案 局 2016 年 度 部 门 预 算 表 一 2016 年 度 市 级 部 门 收 支 预 算 总 表 二 2016 年 度 市 级 部 门 支 出 预 算 表 三 2016

专注于做最好的嵌入式计算机系统供应商

/ 149 / / / / / 500 1, / / / / / / / / 1,000 3, / / IT 157 / /

《网络技术实训》/ 实验7:基于Linux的DHCP服务器的实现

Transcription:

1 汉水大数据操作系统企业版 7.0 快速入门 本文宗旨 : 本文为帮助新手从零开始在虚拟机中安装部署伪分布式 hadoop 大数据集群, 便于学习大数据开发的相关技术 不适合在企业级环境中应用, 如需要部署分布式企业级 hadoop 集群请跟产品销售联系, 联系方式 :021-52682238 版权申明 : 本文档采用开放文档授权协议进行发布, 任何个人和组织都可以自由修改和传 播这个文档, 如果您在这个文档的基础上进行了更新或者有修订请求, 请联系文档的维护 人员 :allen@hanwater.com, 便于从软件产品网站上更新发布 本文档的官方发布站点为 http://hanwate.com/docs 文档更新记录 : 文档版本 时间 作者 / 修订者 1.0 2018-01-26 张一峰 / 上海汉水信息技术服务有限公司 2.0 2018-03-23 张一峰 / 上海汉水信息技术服务有限公司

2 一 VMware 虚拟机的安装准备 请进入电脑开机主板 BIOS 设置页面, 激活 CPU 虚拟化技术 二 Hanwate 操作系统在 VMware 虚拟机中的安装 一 虚拟机的创建及安装前准备 1. 新建虚拟机 点击 创建新的虚拟机 选项进行新虚拟机的创建 在 新建虚拟机向导 中选择 自定义 选项 ( 通过自定义可以选择 VMware 版本 ), 然后点 击 下一步

3 2. 选择版本 保持默认配置就好, 无需改动, 点击 下一步 继续 3. 安装客户机操作系统 选择 稍后安装操作系统, 安装一块空白硬盘, 并点击 下一步 继续

4 4. 选择客户机操作系统 在此配置项中选择 Linux 以及 CentOS 64 位 选项, 并点击 下一步 继续 5. 命名虚拟机为虚拟机设置名称并设置虚拟机的物理位置, 任意设置即可由于虚拟机占用一定空间, 最好是不要按照默认安装在 C 盘 : 设置完毕后点击 下一步 即可

5 6. 处理器配置 保持默认配置就好, 无需改动, 点击 下一步 继续 7. 虚拟机内存设置 给虚拟机设置内存大小, 一般保持默认设置的 1024MB 即 1G 即可, 也可按需进行调整, 设置完毕后点击 下一步 继续

6 8. 网络设置 选择 使用网络地址转换 (NAT) 模式, 这样, 设置完毕后虚拟机就可以使用本机的网络, 而 无需再次进行设置, 设置完毕后点击 下一步 继续 9. 选择 I/O 控制器类型 保持默认配置就好, 无需改动, 点击 下一步 继续

7 10. 选择硬盘类型 保持默认配置就好, 无需改动, 点击 下一步 继续 11. 选择磁盘 选择 创建新虚拟磁盘 并点击 下一步 继续

8 12. 指定磁盘容量 设置磁盘空间大小, 一般保持默认设置的 20.0G 磁盘空间就可以, 也可按需修改, 设置完 毕后点击 下一步 继续 13. 指定磁盘文件 保持默认配置就好, 无需改动, 点击 下一步 继续

9 14. 已准备好创建虚拟机 查看之前已经配置好的虚拟机信息, 若无差错则点击 完成 完成虚拟机的创建工作 15.Hanwate 大数据操作系统镜像的选择 点击 CD/DVD, 并进行镜像文件的选择

10 在弹出的设置窗口中, 在 连接 中选择 使用 ISO 映像文件, 并点击 浏览 找到镜像文件 的位置, 并选择 ( 保证 设备状态 中的 启动时连接 选项被勾选 ), 确认无误后点击 确定 完成 配置 16. 虚拟机的启动 虚拟机设置完毕, 点击 开启此虚拟机 开启 Hanwate 操作系统并进行 Hanwate Linux 操 作系统的安装和配置

11 二 Hanwate 操作系统配置 1. 操作系统启动成功后, 会出现下面的界面 这里选择 Install Hanwate Bigdata OS 7 (Firefly) 选项, 即 安装 Hanwate Bigdata OS 7 系 统, 回车确定 2. 进入系统配置选项界面, 按照顺序对其依次进行设置

12 3. 日期和时间的配置 选择 亚洲 -- 上海 时区, 并点击完成 4. 键盘布局设置 保持默认的汉语即可. 也可按需进行修改, 设置完毕后点击 完成

13 5. 语言设置 保持默认的 简体中文 即可. 也可按需进行修改, 设置完毕后点击 完成 6. 安装源设置 保持默认配置即可, 无需改动, 点击 完成

14 7. 软件选择 选择 汉水大数据操作系统, 附加选项无需选择, 点击 完成 即可 8. 安装目标位置设置 选择配置虚拟机时分配的 20G 磁盘空间, 选择 " 自动分配分区 ", 点击 " 完成 " 即可

15 9.KDUMP 设置 保持默认配置, 无需改动, 点击 " 完成 " 即可 10. 网络和主机名配置 网络和主机名配置会在安装过程结束之后进入系统之后进行配置, 这里保持默认配置, 无需改动, 点击 " 完成 " 即可

16 11.SECURITY POLICY 配置 保持默认配置, 无需改动, 点击 " 完成 " 即可 12. 安装 至此, 所有基本配置已全部完成, 点击 " 安装 " 则系统进入安装界面 ( 如下图 )

17 13. 设置 root 用户密码安装成功后默认的存在用户只有 root, 我们需要密码进入安装好的系统, 所以我们需要给 root 用户设置一个登录系统的密码在安装界面点击 "ROOT 密码 " 进入密码设置界面来进行密码设置若密码过于简单, 则系统会提示, 此时无需担心, 强制保存弱密码即可 ( 连续点击两次 " 完成 " 即可 ) 14. 安装成功 此时系统已安装完成, 点击 " 重启 " 即可

18 15. 登录 此时系统已经重启完毕, 直接使用账号和密码登录就可以直接使用

19 三 Hadoop 伪分布式集群搭建 Hadoop 本身是基于分布式的系统应用, 但很多时候如果只是进行简单的测试, 没有必 要做许多的机器集群 所谓的伪分布式, 本质上指的就是进行单机版的 hadoop 配置 注意事项 : 1.hadoop 集群管理上要求不要对 IP 进行变更, 也就是说必须要保证从项目的开发以及最终的运行状态, 都要求 IP 地址是同一个, 如果变更了, 那么就意味着所有的组件都要重新配置, 很容易发生不可预知的后果 2. 在整个 hadoop 的处理过程中, 都是利用 ssh 实现通讯的, 就算是在本机 ( 伪分布 式 ), 也必须在 Linux 上配置 ssh 免登陆处理 搭建步骤如下 : 一 配置 IP 地址 1. 使用 root 账户登录系统 2. 输入 vim /etc/sysconfig/network-scripts/ifcfg-ens32 命令来修改 IP 地址配置

20 3. 在文件中修改并加入如下配置项, 保存退出 BOOTPROTO=static IPADDR=191.168.X.100 NETMASK=255.255.255.0 GATEWAY=192.168.X.1 4. 输入 systemctl restart network 命令来重启网络服务, 重启成功后使用 ip addr 命令 查看网络配置是否成功生效

21 二 修改主机名 1. 在 root 用户下, 输入 vim /etc/hostname 命令来编辑修改 /etc/hostname 文件 2. 将里面的 localhost.localdomain 修改为 hadoop, 保存退出即可 三 修改主机的映射配置 1. 在 root 用户下, 输入 vim /etc/hosts 命令来编辑修改 /etc/hosts 文件 2. 在原内容的基础上, 添加 ip 地址和主机名的映射, 保存退出即可 3. 为了让刚才的配置生效, 在 root 用户下, 输入 reboot 重启系统

22 4. 重启后效果如下, 配置生效 四 配置 SSH 免密登录 1. 使用 root 账号登录系统 2. 输入 ssh-keygen -t rsa -P 命令来生成公钥, 所有的出现的确认的配置信息都使用 默认的方式进行处理 ( 都按 回车 ) 如下图所示

23 文件夹生成成功 3. 输入命令 cd.ssh 进入.ssh 文件夹 输入命令 cat id_rsa.pub >> authorized_keys 将公钥信息保存在授权认证的文件中 如下图 4. 输入命令 chmod 600 authorized_keys 修改 authorized_keys 文件的权限为 600(rw-------)

24 5.SSH 免密登录配置成功 使用 ssh hadoop 来登录 hadoop 账户 使用 exit 退出登录 五 配置环境变量 JAVA_HOME 1. 输入命令 vim /etc/profile 来配置环境变量 2. 将如下内容添加到文件内容末尾, 保存退出即可 export JAVA_HOME=/usr export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib export PATH=$PATH:$JAVA_HOME/bin 3. 修改后的 profile 文件, 如下图

25 4. 输入命令 source /etc/profile 使得配置信息生效 5. 检验 JAVA_HOME 是否配置成功 ( 输入命令 Java -version 检测 ) 六 配置环境变量 HADOOP_HOME 1. 输入命令 vim /etc/profile 2. 将如下内容添加到文件内容末尾, 保存退出即可 export HADOOP_HOME=/usr/hdp/2.6.3.0-235/hadoop export PATH=$PATH:$HADOOP_HOME/bin 3. 修改后的 profile 文件, 如下图

26 4. 输入命令 source /etc/profile 使得配置信息生效 5. 查看配置是否成功 七 配置 "hadoop-env.sh" 文件 1. 输入命令 cd $HADOOP_HOME/etc/hadoop 输入命令 vim hadoop-env.sh 来修改 hadoop-env.sh 文件 2. 将如下内容添加到文件内容末尾, 保存退出即可 export JAVA_HOME=/usr

27 八 配置 "core-site.xml" 文件 1. 输入命令 vim core-site.xml 来修改 core-site.xml 文件 2. 将如下内容添加到文件内容中 (configuration 标签中 ), 保存退出即可 <property> <name>hadoop.tmp.dir</name> <value>/hadoop/hadoop_tmp</value> </property> <property> <name>fs.defaultfs</name> <value>hdfs://hadoop:9000</value> </property> 3. 修改后的 core-site.xml 文件, 如下图 4. 输入命令 mkdir -p /hadoop/hadoop_tmp 在 / 目录下创建临时文件目录 并输入命令 chmod -R 777 /hadoop 将临时文件目录及其子目录的权限都修改成 rwxrwxrwx

28 九 配置 hdfs-site.xml 文件 1. 输入命令 cd $HADOOP_HOME/etc/hadoop 注意 : 默认情况下, 当前目录下没有 hdfs-site.xml 文件, 需要从 $HADOOP_HOME/../etc/hadoop/conf.empty/ 目录下复制 hdfs-site.xml 文件输入命令 cp $HADOOP_HOME/../etc/hadoop/conf.empty/hdfs-site.xml./ 复制 hdfs-site.xml 到当前目录下输入命令 vim hdfs-site.xml 来修改 hdfs-site.xml 文件 2. 将如下内容添加到文件内容中 (configuration 标签中 ), 保存退出即可 <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/hdfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/hdfs/data</value> </property> 3. 修改后的 hdfs-site.xml 文件, 如下图

29 4. 输入命令 mkdir -p /hdfs/{name,data} 在根目录 / 下创建数据节点和名称节点的路径输入命令 chown -R hdfs:hadoop /hdfs 修改文件夹的属主以及属组 十 配置 yarn-site.xml 文件 注意 : 默认情况下, 当前目录下同样没有 yarn-site.xml 文件, 需要从 $HADOOP_HOME/../etc/hadoop/conf.empty/ 目录下复制 yarn-site.xml 文件输入命令 cp $HADOOP_HOME/../etc/hadoop/conf.empty/yarn-site.xml./ 复制 yarn-site.xml 到当前目录下 1. 输入命令 vim yarn-site.xml 来修改 yarn-site.xml 文件 2. 将如下内容添加到文件内容中 (configuration 标签中 ), 保存退出即可 <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.application.classpath</name> <value>$hadoop_conf_dir, /usr/hdp/2.6.3.0-235/hadoop/*, /usr/hdp/2.6.3.0-235/hadoop/lib/*, /usr/hdp/2.6.3.0-235/hadoop-hdfs/*, /usr/hdp/2.6.3.0-235/hadoop-hdfs/lib/*, /usr/hdp/2.6.3.0-235/hadoop-yarn/*,

30 /usr/hdp/2.6.3.0-235/hadoop-yarn/lib/*, /usr/hdp/2.6.3.0-235/hadoop-mapreduce/*, /usr/hdp/2.6.3.0-235/hadoop-mapreduce/lib/*, /usr/hdp/2.6.3.0-235/hadoop-httpfs/*, /usr/hdp/2.6.3.0-235/hadoop-httpfs/lib/* </value> </property> 3. 修改后的 yarn-site.xml 文件, 如下图 十一 配置 mapred-site.xml 文件 注意 : 默认情况下当前目录下没有 mapred-site.xml 文件, 只有一份模板文件 mapred-site.xml.template, 需要复制该模板文件到本地目录下并修改文件名为 mapred-site.xml 1. 输入命令 cp./mapred-site.xml.template./mapred-site.xml 复制模板文件到当前目录并修改文件名为 mapred-site.xml 1. 输入命令 vim mapred-site.xml 来修改 mapred-site.xml 文件

31 2. 将如下内容添加到文件内容中 (configuration 标签中 ), 保存退出即可 <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.application.classpath</name> <value> /etc/hadoop/conf/*, /usr/hdp/2.6.3.0-235/hadoop/*, /usr/hdp/2.6.3.0-235/hadoop-hdfs/*, /usr/hdp/2.6.3.0-235/hadoop-yarn/*, /usr/hdp/2.6.3.0-235/hadoop-mapreduce/*, /usr/hdp/2.6.3.0-235/hadoop/lib/*, /usr/hdp/2.6.3.0-235/hadoop-hdfs/lib/*, /usr/hdp/2.6.3.0-235/hadoop-yarn/lib/*, /usr/hdp/2.6.3.0-235/hadoop-mapreduce/lib/* </value> </property> 3. 修改后的 mapred-site.xml 文件, 如下图

32 十二 格式化 HDFS 文件系统 1. 输入命令 su - hdfs 切换到 hdfs 用户身份 2. 输入命令 hdfs namenode -format 进行文件系统的格式化 3. 格式化成功反馈

33 十三 启动 HDFS 服务 输入命令 systemctl start hadoop-hdfs-namenode 启动 namenode 服务输入命令 systemctl start hadoop-hdfs-datanode 启动 datanode 服务输入命令 systemctl start hadoop-hdfs-secondarynamenode 启动 secondarynamenode 服务并输入 jps 查看是否启动成功 HDFS 服务启动成功后, 通过 Web 浏览器访问 192.168.216.137( 当前 IP 地址 ):50070 就可以查看到 HDFS 后台的情况, 如下图所示

34 十四 启动 Yarn 服务 注意 : 默认的软件安装没有创建 yarn-env.sh 文件, 需手动创建此文件以保证 yarn 的服务可以正常启动! 输入命令 touch $HADOOP_HOME/etc/hadoop/yarn-env.sh 创建启动 yarn 服务必须 的环境文件 输入命令 systemctl start hadoop-yarn-resourcemanager 启动 resourcemanager 服务 输入命令 systemctl start hadoop-yarn-nodemanager 启动 nodemanager 服务 并输入 jps 查看是否启动成功 Yarn 服务启动成功后, 通过 Web 浏览器访问 192.168.216.137( 当前 IP 地址 ):8088 就可以查看到 Resourcemanager 任务管理器后台的情况, 如下图所示

35 十五 测试实验 1. 输入命令 vim input.txt 来编辑一个文本文件 2. 文本文件内容如下图所示 ( 也可自行编辑 ) 3. 输入命令 hdfs dfs -put input.txt /input 上传文本文件到 HDFS 集群中 并输入命令 hdfs dfs -cat /input 查看文件是否上传成功 5. 输入如下命令进行测试

36 6. 测试结果反馈 1). 任务运行反馈如下图所示 2). 输入命令 hdfs dfs -cat /output/part-r-00000 查看 mapreduce 任务输出 3).Web 界面运行结果反馈