博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Hadoop伪分布式模式部署
阅读量:5266 次
发布时间:2019-06-14

本文共 3195 字,大约阅读时间需要 10 分钟。

Hadoop的安装有三种执行模式

  1. 单机模式(Local (Standalone) Mode):Hadoop的默认模式,0配置。Hadoop执行在一个Java进程中。使用本地文件系统。不使用HDFS,一般用于开发调试MapReduce程序的应用逻辑。

  2. 伪分布式模式(Pseudo-Distributed Mode):需简单配置,相当于仅仅有一个节点的集群,Hadoop的全部守护进程执行在同一台机器上。该模式在单机模式之上添加了代码调试功能,同意你检查内存使用情况,HDFS输入输出。以及其它的守护进程交互。
  3. 全然分布式模式(Fully-Distributed Mode):依据须要进行配置。多节点,一般用于生产环境。可觉得是由伪分布式模式的一个节点变为多个节点。

准备工作

这里的准备工作能够查看。

总结一下就是:

  1. Linux系统环境
  2. 安装JDK及其环境变量、ssh及ssh的免password登录
  3. Hadoop安装包
  4. 环境变量的配置

环境搭建

改动core-site.xml

改动$HADOOP_HOME/etc/hadoop/core-site.xml文件。在默认情况下,这个文件为空。没有不论什么配置。这里须要指定NameNode的ip和port(默认port是8020)。

fs.defaultFS
hdfs://192.168.1.134:9000

192.168.1.134是我的本机地址。能够写localhost或127.0.0.1。可是假设须要Eclipse远程调用Hadoop的时候,须要些详细的ip地址。否则调不通。

改动hdfs-site.xml

HDFS是分布式文件系统。为了安全性考虑,会将上传至HDFS的文件的每一个分块复制到N个节点上,即复制N次(这里的N成为复制因子)。这里将复制因子改为1。

dfs.replication
1

启动最小Hadoop伪分布式模式

经过上面的最小配置后,Hadoop已经能够启动伪分布式模式了。

格式化文件系统

第一次执行Hadoop的时候须要格式化其文件系统:

$ bin/hdfs namenode -format

假设成功,会打印:

。。。

14/10/14 19:09:05 INFO common.Storage: Storage directory /tmp/hadoop-lxh/dfs/name has been successfully formatted. 。

。。

启动NameNode守护进程和DataNode守护进程

直接通过Hadoop提供的脚本start-dfs.sh就可以:

$ sbin/start-dfs.sh

启动日志保存在$HADOOPLOGDIR文件夹中(默认是$HADOOP_HOME/logs)。

查看启动的进程

能够通过jps查看已经启动的进程:

31536 SecondaryNameNode31381 DataNode31254 NameNode31643 Jps

说明DataNodeNameNodeSecondaryNameNode已经启动成功。

查看NameNode的web接口

通过默认的NameNode的web接口http://localhost:50070/,能够查看NameNode收集的信息。相当于关于Hadoop提供的一个信息查询系统。

Hello World

运行官网提供的验证程序。

$ hdfs dfs -mkdir /input$ hdfs dfs -put $HADOOP_HOME/etc/hadoop/* /input$ hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.1.jar grep /input /output 'dfs[a-z.]+'$ hdfs dfs -cat /output/*

最后一条命令是显示最后的运行结果:

6   dfs.audit.logger4   dfs.class3   dfs.server.namenode.2   dfs.period2   dfs.audit.log.maxfilesize2   dfs.audit.log.maxbackupindex1   dfsmetrics.log1   dfsadmin1   dfs.servers1   dfs.replication1   dfs.file

停止进程

伪分布式模式中的第一个Hello World运行成功后,能够关闭进程了。

$ stop-dfs.sh

配置YARN

通过配置一些參数,并启动ResourceManager守护进程和NodeManager守护进程,能够在伪分布式模式中,在YARN上执行MapReduce任务。

上面的最小配置不变。

改动mapred-site.xml

在默认的Hadoop安装包中,没有mapred-site.xml文件,能够复制mapred-site.xml.template,并改动。指定在YARN中执行MapReduce任务:

mapreduce.framework.name
yarn

改动yarn-site.xml

指明须要向MapReduce应用提供的Shuffle服务。

yarn.nodemanager.aux-services
mapreduce_shuffle

执行

能够通过start-yarn.sh启动ResourceManager守护进程和NodeManager守护进程,通过stop-yarn.sh停止。

补充配置

Hadoop默认将HDFS文件系统写在/tmp/hadoop-中。由于系统重新启动会清理/tmp文件夹。所以须要保证重新启动系统不丢失数据,须要改动默认数据保存位置。

core-site.xml

hadoop.tmp.dir
file:/home/lxh/hadoop/tmp/hadoop

hdfs-site.xml

dfs.namenode.name.dir
file:/home/lxh/hadoop/hdfs/name
dfs.datanode.data.dir
file:/home/lxh/hadoop/hdfs/data

转载于:https://www.cnblogs.com/blfshiye/p/5118680.html

你可能感兴趣的文章
mysql-5.7 innodb 的并行任务调度详解
查看>>
shell脚本
查看>>
Upload Image to .NET Core 2.1 API
查看>>
Js时间处理
查看>>
Java项目xml相关配置
查看>>
三维变换概述
查看>>
vue route 跳转
查看>>
【雷电】源代码分析(二)-- 进入游戏攻击
查看>>
Entityframework:“System.Data.Entity.Internal.AppConfig”的类型初始值设定项引发异常。...
查看>>
Linux中防火墙centos
查看>>
mysql新建用户,用户授权,删除用户,修改密码
查看>>
FancyCoverFlow
查看>>
JS博客
查看>>
如何设置映射网络驱动器的具体步骤和方法
查看>>
ASP.NET WebApi 基于OAuth2.0实现Token签名认证
查看>>
283. Move Zeroes把零放在最后面
查看>>
Visual Studio Code 打开.py代码报Linter pylint is not installed解决办法
查看>>
Python 数据类型
查看>>
S5PV210根文件系统的制作(一)
查看>>
centos下同时启动多个tomcat
查看>>