hadoop官网http://hadoop.apache.org/,可以下载最新的hadoop版本,这里安装最新的hadoop-2.4.0.tar.gz。
采用集群方式安装hadoop,只有一台master服务器,有多个slave服务器,这里暂时定义一台slave服务器。master服务器的域名为master,slave服务器的域名为slave1。
- 准备条件
1.jdk安装
2.ssh安装
master需要通过ssh无密码访问slave。
执行下面3条指令,最后一条指令是将authorized_keys文件复制到域名为slave1的服务器上
ssh-keygen -t dsa -P '' -f /root/.ssh/id_dsa cat /root/.ssh/id_dsa.pub >> /root/.ssh/authorized_keys scp authorized_keys slave1:/root/.ssh/
- hadoop配置
上传hadoop-2.4.0.tar.gz到master服务器的/home目录,并解压。
修改/home/hadoop-2.4.0/etc/hadoop/hadoop-env.sh文件和yarn-env.sh文件
在里面设置java环境变量
修改/home/hadoop-2.4.0/etc/hadoop/core-site.xml文件
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> </configuration>
修改/home/hadoop-2.4.0/etc/hadoop/hdfs-site.xml文件
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/hadoop-2.4.0/hadoopfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/hadoop-2.4.0/hadoopfs/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.http-address</name> <value>master:50070</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
修改/home/hadoop-2.4.0/etc/hadoop/mapred-site.xml文件
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
修改/home/hadoop-2.4.0/etc/hadoop/yarn-site.xml文件
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value> </property> </configuration>
修改/home/hadoop-2.4.0/etc/hadoop/slaves文件,里面增加slave服务器的ip或域名。
最后将master服务器上/home/hadoop-2.4.0/目录复制到所有slave服务器上。
- hadoop启动
进入/home/hadoop-2.4.0/bin目录,hadoop namenode –format格式化,只用执行一次。
进入/home/hadoop-2.4.0/sbin目录,start-all.sh,启动hadoop。
相关推荐
Hadoop2.4linux安装配置过程详细过程。
从零教你在Linux环境下编译hadoop2.4及hadoop2.4汇总
这里详细介绍了hadoop2.4.1的伪分布式的搭建,主要是一些配置文件的修改
spark部署搭建的安装包,spark-1.6.0-bin-hadoop2.4.tgz,需要的朋友可以下载使用
可以搭建单机模拟分布式hadoop,可以参考:https://blog.csdn.net/qq_33689414/article/details/79223186
Hadoop2.4.1最新集群搭建,Hadoop HA
NULL 博文链接:https://just2do.iteye.com/blog/2210992
详实的记录了搭建Hadoop云计算环境的过程,希望能帮助他人快速搭建Hadoop云计算环境,目录如下: 1引言 1 1.1 编写目的 1 2搭建过程 1 2.1 所需软件 1 2.2 VMware Workstation安装 1 2.3 Ubuntu安装 2 2.4 VMware ...
Hadoop2.4.0测试环境搭建 http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.1-latest/bk_installing_manually_boo k/content/rpm-chap1-11.html [bigdata@namenode1 scripts]$ pwd /home/bigdata/software/...
2.3 Hadoop安装环境准备 2.4 节和 2.5 节中的命令仅在 bdcourse‐0001 上执行, 2.6 节再将 bdcourse‐0001 上安装
hadoop2.4.1伪分布式搭建 包含网络配置修改 无密码登录
基于hadoop2.4的spark1.1.0集群部署
自己在3台虚拟机环境搭建的hadoop,spark集群环境。 方便以后自己参考及流量 Linux 操作 增加用户 更改文件夹所属用户和组 安装Hadoop 2.1 安装说明 2.2每台机器安装scala 安装 2.11.8 版本 2.3安装配置...
hadoop搭建配置文件 hdfs-site.xml core-site.xml mapred-site.xml 等等,本人使用的是2.4版本。内部标签有相应汉语注释
2.2.2 验证SSH安装 2.2.3 生成SSH密钥对 2.2.4 将公钥分布并登录验证 2.3 运行Hadoop 2.3.1 本地(单机)模式 2.3.2 伪分布模式 2.3.3 全分布模式 2.4 基于Web 的集群用户界面 2.5 小结 第3章 Hadoop组件...
基础篇第1章 阅读源代码前的准备1.1 准备源代码学习环境1.1.1 基础软件下载1.1.2 如何准备Windows环境1.1.3 如何准备Linux环境1.2 获取Hadoop源代码1.3 搭建Hadoop源代码阅读环境1.3.1 创建Hadoop工程1.3.2...
在用eclipse 搭建hadoop插件时,apache不会提供插件,插件必须自己编译并且声称jar包。 1、将hadoop-1.1.2.tar.gz解压。比如:D:\hadoop-1.1.2。 2、进入D:\hadoop-1.1.2\src\contrib目录。将build-contrib.xml...
Centos7.2安装Ambari2.4.2+HDP2.5.3搭建Hadoop集群 http://public-repo-1.hortonworks.com/ambari/centos7/2.x/updates/2.4.2.0/ambari-2.4.2.0-centos7.tar.gz
Docker(Hadoop_3.3.1+HBase_2.4.16+Zookeeper_3.7.1+Hive_3.1.3 )配置文件 搭建集群环境
配置Hadoop2.1部署及配置2.2 将配置复制到其他服务器2.3配置下hadoop的环境变量,方便输入命令2.4格式化3.启动4.打开浏览器查看HDFS监听页面参考书籍 一些介绍 Hadoop 2和Hadoop 3的端口区别 Hadoop 3 HDFS集群架构...