设为首页 收藏本站
查看: 567|回复: 0

[经验分享] 10分钟搭建Hadoop集群

[复制链接]

尚未签到

发表于 2016-12-4 10:47:15 | 显示全部楼层 |阅读模式
10分钟搭建Hadoop集群


1. 准备
  3台Linux机器或虚拟机,安装了CentOS6/Redhat6/Ubuntu;


  在所有机器上都安装了ssh和rsync,ubuntu安装例子:
$ sudo apt-get install ssh
$ sudo apt-get install rsync

安装java。
2. 规划节点:
将其中一台机器作为master作为NameNode,另外两台作为DataNode,命名3台机器为:node1,node2,node3,这里将node1作为NameNode,node2,node3作为dataNode;
在所有机器的/etc/hosts中加入hostname配置信息,加入如下例子中的红色部分:
127.0.0.1    localhost




# The following lines are desirable for IPv6 capable hosts
::1   ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters


192.168.1.11 node1
192.168.1.12 node2
192.168.1.13 node3


3. 环境准备:
为方便管理和安装,在所有机器上创建同一个hadoop用户,以下所有操作都在此账户下进行。
设置无密码登陆,在node1上创建public密钥,并将public密钥copy到其他节点机器,并将public密钥导入到所有机器(包括本机):
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

导入密钥后,在node1上,分别用ssh localhost;ssh node1;ssh node2;ssh node3测试密钥安装正确,并能无密码登陆。


规划hadoop数据目录,在所有机器上创建如下目录:
$ mkdir ~/data
$ mkdir ~/data/hdfs
$ mkdir ~/data/hdfs/name #namenode
$ mkdir ~/data/hdfs/data #datanode
$ mkdir ~/data/hdfs/tmp #临时文件夹



下载最新的stable Hadoop到/home/hadoop/:curlhttp://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.0.4/hadoop-1.0.4-bin.tar.gz
解压:tar -zxvfhadoop-1.0.4-bin.tar.gz


修改配置文件:
hadoop-1.0.4/conf/hadoop-env.sh 中指定JAVA_HOME:
# The java implementation to use. Required.
# export JAVA_HOME=/usr/lib/j2sdk1.5-sun
export JAVA_HOME=/opt/java/jdk1.6.0_24
# Extra Java CLASSPATH elements. Optional.
# export HADOOP_CLASSPATH=




hadoop-1.0.4/conf/core-site.xml
<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/hadoop/data/hdfs/tmp</value>
</property>


<property>
  <name>fs.default.name</name>
  <value>hdfs://node1:9000</value>
</property>




hadoop-1.0.4/conf/hdfs-site.xml
<property>
  <name>dfs.name.dir</name>
  <value>/home/hadoop/data/hdfs/name</value>
</property>


<property>
  <name>dfs.data.dir</name>
  <value>/home/hadoop/data/hdfs/data</value>
</property>


hadoop-1.0.4/conf/mapred-site.xml


<property>
  <name>mapred.job.tracker</name>
  <value>node1:9001</value>
</property>


<property>
  <name>mapreduce.jobtracker.system.dir</name>
  <value>/home/hadoop/data/hdfs/mapred/system</value>
</property>


<property>
  <name>mapreduce.cluster.local.dir</name>
  <value>/home/hadoop/data/hdfs/mapred/local</value>
</property>


hadoop-1.0.4/conf/masters
node1

hadoop-1.0.4/conf/slaves
node2
node3


4. 同步hadoop所有软件和配置到其他机器
创建目标机器列表文件,并加入目标机器名:/home/hadoop/servers
node2
node3

创建同步脚本:/home/hadoop/cp_hadoop
for host in `cat servers`
do
echo ------------------------------------------------------------------
echo rsync host:  $host
ssh $host 'rm -fr /home/hadoop/hadoop-1.0.4'
rsync -avz/home/hadoop/hadoop-1.0.4 $host:/home/hadoop/hadoop-1.0.4


done


执行同步脚本: $ ./cp_hadoop


5. 启动所有服务:
$ cd/home/hadoop/hadoop-1.0.4/bin
$ ./start_all.sh

6. 访问web界面验证安装:

  • NameNode-http://node1:50070/
  • JobTracker-http://node2:50030/

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309472-1-1.html 上篇帖子: eclipse编译hadoop源码 下篇帖子: hadoop pig tips
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表