在Fedora上部署Hadoop2.2.0伪分布式平台

Similar documents
Hadoop2.2.0完全分布式集群平台安装与设置

tar -xzf hadoop tar.gz mv hadoop /app 在 Hadoop 目录下创建子目录 在 hadoop 目录下创建 tmp name 和 data 目录 cd /app/hadoop mkdir tmp mkdir

目录 1 编译 HADOOOP 搭建环境 安装并设置 maven 以 root 用户使用 yum 安装 svn 以 root 用户使用 yum 安装 autoconf automake libtool cmake..

Ubuntu和CentOS如何配置SSH使得无密码登陆

Hadoop 2.2.0安装和配置lzo

Apache CarbonData集群模式使用指南

使用Spark SQL读取Hive上的数据

Spark读取Hbase中的数据

1 汉水大数据操作系统企业版 7.0 快速入门 本文宗旨 : 本文为帮助新手从零开始在虚拟机中安装部署伪分布式 hadoop 大数据集群, 便于学习大数据开发的相关技术 不适合在企业级环境中应用, 如需要部署分布式企业级 hadoop 集群请跟产品销售联系, 联系方式 : 版

通过Hive将数据写入到ElasticSearch

Flink快速上手(QuickStart)

Hive:用Java代码通过JDBC连接Hiveserver

Guava学习之Resources

六种使用Linux命令发送带附件的邮件

使用MapReduce读取XML文件

在Spring中使用Kafka:Producer篇

使用Cassandra和Spark 2.0实现Rest API服务

使用Hive读取ElasticSearch中的数据

投影片 1

MapReduce

编写简单的Mapreduce程序并部署在Hadoop2.2.0上运行

韶关:神奇丹霞

ebook70-22

Hadoop&Spark解决二次排序问题(Hadoop篇)

哼, 你 們 不 回 答 又 怎 麼 樣? 不 管 是 多 大 來 頭, 現 在 都 被 血 魔 吞 噬 無 蹤 了 你 們 幾 個 真 是 太 過 分, 我 不 犯 你 們, 你 們 卻 一 天 到 晚 來 挑 釁 我 教 尊 冷 笑 著 說 道 嗚, 大 人 土 地 大 姐 跪 下 來, 流 下

Flume-ng与Mysql整合开发

伊春:醉人林都

Hive几种数据导入方式

对于 Hadoop 来说, 在 HDFS 看来, 节点分为 Namenode 和 Datanode, 其中 Namenode 只有一个,Datanode 可以是很多 ; 在 MapReduce 看来, 节点又分为 Jobtracker 和 Tasktracker, 其中 Jobtracker 只有一

Flink on YARN部署快速入门指南

三种恢复 HDFS 上删除文件的方法

2017ÅàÑø·½°¸

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并

三种方法实现Hadoop(MapReduce)全局排序(1)

关林:武圣陵寝

泰山:五岳独尊

Guava学习之CharSequenceReader

Hadoop元数据合并异常及解决方法

国内26省市新能源汽车推广规划已出台

在Windows上安装Hadoop

北戴河:海阔天空

程模型,MapReduce 把任务分为 map( 映射 ) 阶段和 reduce( 化简 ) 由于 MapReduce 工作原理的特性, Hadoop 能以并行的方式访问数据, 从而实现快速访问数据 Hbase--HBase 是一个建立在 HDFS 之上, 面向列的 NoSQL 数据库, 用于快速读


西岭雪山滑雪场

Microsoft Word - 在VMWare-5.5+RedHat-9下建立本机QTopia-2.1.1虚拟平台a.doc

如何在 Apache Hive 中解析 Json 数组

A9RF716.tmp

Kafka客户端是如何找到 leader 分区的

内 容 提 要 将 JAVA 开 发 环 境 迁 移 到 Linux 系 统 上 是 现 在 很 多 公 司 的 现 实 想 法, 而 在 Linux 上 配 置 JAVA 开 发 环 境 是 步 入 Linux 下 JAVA 程 序 开 发 的 第 一 步, 本 文 图 文 并 茂 地 全 程 指

使用Apache Beam读写HDFS上的文件

大数据技术原理与应用

江门:中国第一侨乡

是 喔, 就 是 那 個 在 BBS 醫 療 版 跟 你 嗆 聲, 自 稱 有 三 十 多 年 推 拿 經 驗 的 大 叔 嗎? 一 個 看 來 頗 為 清 秀 的 女 生 問 道, 她 語 氣 中 略 感 訝 異 是 啊, 什 麼 推 拿 按 摩 有 多 好, 還 要 人 生 病 盡 量 不 要

教育扩张能改善收入分配差距吗?——来自CHNS2006年数据的证据

山水文化,市井人家——以湖州邱城小镇的概念性规划为例

Linux服务器构建与运维管理

达内Linux云计算学院

目录 一 安装配置步骤 虚拟机的准备工作 安装和配置 JDK 环境 配置 SSH 免密码登录 编辑 etc/hosts 文件 配置 hadoop 将 master 上的 Hadoop 安装包拷

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

電機工程系認可證照清單 /7/1

考 試 日 期 :2016/04/24 教 室 名 稱 :602 電 腦 教 室 考 試 時 間 :09: 二 技 企 管 一 胡 宗 兒 中 文 輸 入 四 技 企 四 甲 林 姿 瑄 中 文 輸 入 二 技 企 管 一

Blog:Hadoop 系列文章之三:建立 Hadoop 多點分散架構.docx

将 MySQL 的全量数据导入到 Apache Solr 中

内 容 简 介 本 书 是 一 本 关 于 语 言 程 序 设 计 的 教 材, 涵 盖 了 语 言 的 基 本 语 法 和 编 程 技 术, 其 中 包 含 了 作 者 对 语 言 多 年 开 发 经 验 的 总 结, 目 的 是 让 初 学 的 读 者 感 受 到 语 言 的 魅 力, 并 掌

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

(Microsoft Word - \277\357\262\325\252\272\246\322\266q.doc)

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7.

2 以 事 先 備 妥 之 白 塑 膠 繩 勒 A 女 頸 部 之 強 暴 方 式 取 財 行 為 林 國 政 之 自 白 宣 稱 用 以 勒 昏 A 女 之 塑 膠 繩 是 原 本 在 車 上 的, 其 並 無 強 盜 之 故 意 與 行 為 經 遭 竊 機 車 所 有 人 具 結 證 言, 置

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

目录 1. 前提条件 : 首先要配 NameNode 的 HA 的前提条件是集群中有三台服务器中安装 zookeeper 在左侧服务中选中 HBase 并关闭 在 HDFS 页面右侧服务活动中选择停止 在左侧服务中选中 HDFS 在 H

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

一 Grass 是 什 么 1 简 介 GRASS (Geographic Resources Analysis Support System, 地 理 资 源 分 析 支 持 系 统 ) 是 最 负 盛 名 的 开 源 地 理 信 息 系 统 (GIS) 以 下 是 它 的 一 些 特 点 : 1


Spark作业代码(源码)IDE远程调试

SparkR(R on Spark)编程指南

Flink快速上手之Scala API使用

三 開啟第一台機器, 點擊右上角網路手動設定, 解除鎖定選擇 eth1 屬性並設定固定 ip( 例如 : ) 第二台機器網路設定要選擇 eth3 設定固定 ip( ) 四 接著編輯 /etc/hosts 輸入 ip 以及主機名稱, 第二台機器也

21 个你应该知道的 wget 命令

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

epub 63-3

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

据传-蚂蚁金服350亿美元开约A股IPO,马云身价又要暴涨

gta 5 serial key number pciker

Hadoop 手册

张家口:塞外明珠

Eclipse C C++, or

Blog:Hadoop 系列文章之二:建立 Hadoop 單點分散架構.docx

Itext Sign Pdf Example Download

PDF 入不思議解脫境界普賢行願品 ... 《大方廣佛華嚴經卷第四十》

行 业 市 场 研 究 属 于 企 业 战 略 研 究 范 畴, 作 为 当 前 应 用 最 为 广 泛 的 咨 询 服 务, 其 研 究 报 告 形 式 呈 现, 通 常 包 含 以 下 内 容 : 一 份 专 业 的 行 业 研 究 报 告, 注 重 指 导 企 业 或 投 资 者 了 解 该

客户端虚拟机使用说明

ebook 185-6

奇虎360正式开源深度学习调度平台XLearning

PowerPoint 演示文稿

正文.indd

解决百度统计无法获取https来源的referrer

ebook15-C

电邮.FIT)

Transcription:

如果你想配置完全分布式平台请参见本博客 Hadoop2.2.0 完全分布式集群平台安装与设置 首先, 你得在电脑上面安装好 jdk7, 如何安装, 这里就不说了, 网上一大堆教程! 然后安装好 ssh, 如何安装请参见本博客 Linux 平台下安装 SSH 并设置好无密码登录 ( Ubuntu 和 CentOS 如何配置 SSH 使得无密码登陆 ) 好了, 上面的前提条件部署好之后, 下面将进入 Hadoop2.2.0 的部署 运行下面命令, 将最新版的 hadoop 下载下来 : [wyp@wyp hadoop]$ wget \ http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0.tar.gz 当然, 你也可以用下载的软件到上面的地址去下载 上面的命令是一行, 由于此处太长了, 所以强制弄成两行 假设下载好的 hadoop 存放在 /home/wyp/downloads/hadoop 目录中, 由于下载下来的 hadoop 是压缩好的, 请将它解压, 运行下面的命令 : [wyp@wyp hadoop]$ tar -xvf hadoop-2.2.0.tar.gz 解压之后, 你将会看到如下目录结构 : [wyp@wyp hadoop]$ ls -l total 56 drwxr-xr-x. 2 wyp wyp 4096 Oct 7 14:38 bin drwxr-xr-x. 3 wyp wyp 4096 Oct 7 14:38 etc drwxr-xr-x. 2 wyp wyp 4096 Oct 7 14:38 include drwxr-xr-x. 3 wyp wyp 4096 Oct 7 14:38 lib drwxr-xr-x. 2 wyp wyp 4096 Oct 7 14:38 libexec -rw-r--r--. 1 wyp wyp 15164 Oct 7 14:46 LICENSE.txt drwxrwxr-x. 3 wyp wyp 4096 Oct 28 14:38 logs -rw-r--r--. 1 wyp wyp 101 Oct 7 14:46 NOTICE.txt -rw-r--r--. 1 wyp wyp 1366 Oct 7 14:46 README.txt drwxr-xr-x. 2 wyp wyp 4096 Oct 28 12:37 sbin drwxr-xr-x. 4 wyp wyp 4096 Oct 7 14:38 share 1 / 5

下面是配置 Hadoop 的步骤 : 首先设置好 Hadoop 环境变量 : [wyp@wyp hadoop]$ sudo vim /etc/profile 在 /etc/profile 文件的末尾加上以下配置 export HADOOP_DEV_HOME=/home/wyp/Downloads/hadoop export PATH=$PATH:$HADOOP_DEV_HOME/bin export PATH=$PATH:$HADOOP_DEV_HOME/sbin export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME} export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME} export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME} export YARN_HOME=${HADOOP_DEV_HOME} export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop 然后按 :wq 保存 为了让刚刚的设置生效, 运行下面的命令 [wyp@wyp hadoop]$ sudo source /etc/profile 接下来修改 Hadoop 的 hadoop-env.sh 配置文件, 设置 jdk 所在的路径 : [wyp@wyp hadoop]$ vim etc/hadoop/hadoop-env.sh 在里面找到 JAVA_HOME, 并将它的值设置为你电脑 jdk 所在的绝对路径 # The java implementation to use. export JAVA_HOME=/home/wyp/Downloads/jdk1.7.0_45 设置好之后请保存退出 接下来请配置好一下几个文件 ( 都在 hadoop 目录下的 etc/hadoop 目录下 ): ----------------core-site.xml <name>fs.default.name</name> <value>hdfs://localhost:8020</value> 2 / 5

------------------------- yarn-site.xml <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.shufflehandler</value> ------------------------ mapred-site.xml <name>mapreduce.framework.name</name> <value>yarn</value> <name>mapred.system.dir</name> <value>file:/opt/cloud/hadoop_space/mapred/system</value> <name>mapred.local.dir</name> <value>file:/opt/cloud/hadoop_space/mapred/local</value> ----------- hdfs-site.xml <name>dfs.namenode.name.dir</name> <value>file:/opt/cloud/hadoop_space/dfs/name</value> <name>dfs.datanode.data.dir</name> <value>file:/opt/cloud/hadoop_space/dfs/data</value> <description>determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named 3 / 5

directories, typically on different devices. Directories that do not exist are ignored. </description> <name>dfs.replication</name> <value>1</value> <name>dfs.permissions</name> <value>false</value> 上面的配置弄好之后, 现在来进行测试, 看看配置是否正确 首先格式化一下 HDFS, 如下命令 : [wyp@wyp hadoop]$ hdfs namenode -format 13/10/28 16:47:33 INFO namenode.namenode: STARTUP_MSG: /************************************************************... 此处省略好多文字... ************************************************************/ 13/10/28 16:47:33 INFO namenode.namenode: registered UNIX signal handlers for [TERM, HUP, INT] Formatting using clusterid: CID-9931f367-92d3-4693-a706-d83e120cacd6 13/10/28 16:47:34 INFO namenode.hostfilemanager: read includes: HostSet( ) 13/10/28 16:47:34 INFO namenode.hostfilemanager: read excludes: HostSet( )... 此处也省略好多文字... 13/10/28 16:47:38 INFO util.exitutil: Exiting with status 0 13/10/28 16:47:38 INFO namenode.namenode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at wyp/192.168.142.138 ************************************************************/ [wyp@wyp hadoop]$ 4 / 5

Powered by TCPDF (www.tcpdf.org) 大概出现上面的输出, 好了, 去启动一下你的 Hadoop 吧, 命令如下 : [wyp@wyp hadoop]$ sbin/start-dfs.sh [wyp@wyp hadoop]$ sbin/start-yarn.sh 查看一下是否安装好了 Hadoop, 命令如下 : [wyp@wyp hadoop]$ jps 9582 Main 9684 RemoteMavenServer 7011 DataNode 7412 ResourceManager 17423 Jps 7528 NodeManager 7222 SecondaryNameNode 6832 NameNode [wyp@wyp hadoop]$ 其中的 jps 是 jdk 自带的, 如果出现 NameNode SecondaryNameNode NodeManager Re sourcemanager DataNode 这五个进程, 那就恭喜你了, 你的 Hadoop 已经安装好了! 这里附上如何关闭 Hadoop 各个服务 [wyp@wyp hadoop]$ sbin/stop-dfs.sh [wyp@wyp hadoop]$ sbin/stop-yarn.sh 本博客文章除特别声明, 全部都是原创! 转载本文请加上 : 转载自过往记忆 (https://www.iteblog.com/) 本文链接 : () 5 / 5