设为首页 收藏本站
查看: 721|回复: 0

[经验分享] Hadoop 集群搭建

[复制链接]

尚未签到

发表于 2016-12-3 10:51:19 | 显示全部楼层 |阅读模式
Hadoop 集群搭建
集群配置  (IP配置,不用域名,别名)
(注意:最好2台机器,相同的用户名,相同的安装目录。)
192.168.2.79  (webdev):/home/iic/hadoop-0.20.2/
192.168.5.11  (TEST-A):  /home/iic/hadoop-0.20.2/
  192.168.5.12  (TEST-B):  /home/iic/hadoop-0.20.2/          (后来新增)

 
 
配置2.79的配置文件conf/slaves文件中列出所有slave的主机名或者IP地址,一行一个。
webdev
TEST-A
TEST-B
 
5.11,5,12的配置文件conf/masters和conf/slaves在集群配置中没有任何意义。
 
------------------------------------------------------------------------------------
192.168.2.79
 
用root登录2.79,创建用户iic (密码iic),把原本属于root用户的hadoop,转为iic
创建用户:useradd iic
修改密码: passwd  iic  
mv /home/bmb/hadoop-0.20.2/  /home/iic
修改conf/*.xml中原来的bmb目录  (hdfs-site.xml),地址为5.11
修改目录权限为iic: chown -R  iic:iic /home/iic/hadoop-0.20.2/
su -l iic
cd /home/bmb/hadoop-0.20.2/
chmod 700 bin/*
 
打包hadoop,拷贝到5.11
tar cvf hadoop-0.20.2.tar *
scp hadoop-0.20.2.tar  iic@192.168.5.11:/home/iic/
 
  拷贝2.79的JDK6到5.11
cd /home/bmb/jdk1.6.0_16
tar cvf jdk.tar .
scp jdk.tar iic@192.168.5.11:/home/iic/
 
 
  ---------------------
192.168.5.11
mkdir hadoop-0.20.2
mv hadoop-0.20.2.tar  ./hadoop-0.20.2
tar xvf hadoop-0.20.2.tar

  chmod 777 bin/*
 
cd /home/iic
mkdir jdk1.6.0_16
mv jdk.tar jdk1.6.0_16/
cd  jdk1.6.0_16/
chmod 777 /home/iic/jdk1.6.0_16/bin/
  /home/iic/jdk1.6.0_16/bin/java -version
  修改conf/*.xml中原来的bmb目录  (hdfs-site.xml),和IP地址为webdev
  修改conf/hadoop-env的JAVA_HOME
  export JAVA_HOME=/home/iic/jdk1.6.0_16
 
删除目录内容
/home/iic/hadoop-0.20.2/hdfs-data
/home/iic/hadoop-0.20.2/hdfs-name
 
重新格式化不能去掉原来2.79的数据,5.11会出现跟2.79相同的Storage-ID
----------------------------------------------------------------------------------
2.79 SSH passwordless 5.11 问题解决
按照正常步骤,没办法SSH passwordless
用root登录5.11,tail  -f /var/log/secure,发现错误日志:error: Bind to port 22 on 0.0.0.0 failed: Address already in use.
vi /etc/ssh/sshd_config,修改ListenAddress 0.0.0.0 为 ListenAddress 192.168.5.11
重启/etc/init.d/sshd restart,日志显示正常。
重新2.79 ssh 5.11,日志显示bad ownership or modes for directory /u/iic
修改chmod 700 /u/iic,再次登录正常。
 
----------------------------------------------------------------------------------
启动集群:
在2.79下运行
cd /home/iic/hadoop-0.20.2
bin/start-dfs.sh
 
启动后,日志出现错误:
node 192.168.5.11:50010 is replaced by 192.168.2.79:50010 with the same storageID DS-596805328-192.168.2.79-50010-1270801220845
解决方法:
删除5.11/home/iic/hadoop-0.20.2/hdfs-data和/home/iic/hadoop-0.20.2/hdfs-name的内容
 
当页面出现“LiveNodes  2”时,才表示启动成功。
http://192.168.2.79:50070/dfshealth.jsp
 
bin/start-mapred.sh
启动后,5.11的hadoop-iic-tasktracker-TEST-A.log日志报错:
2010-04-12 09:59:18,114 ERROR org.apache.hadoop.mapred.TaskTracker: Caught exception: java.net.UnknownHostException: unknown host: webdev
解决方法,在5.11的/etc/hosts里面添加映射
192.168.2.79    webdev
 
移动数据
bin/hadoop fs -mv /user/root/  /user/iic/
 
  ------------------------------------------------------------------------------------------------------------
  新增192.168.5.12服务器,从5.11拷贝数据
集群中增加机器,而不需要重启集群步骤
  1:在2.79的conf/slaves中,新增一行TEST-B
  2:在5.12上,cd /home/iic/hadoop-0.20.2
  bin/hadoop-daemon.sh start datanode 
bin/hadoop-daemon.sh start tasktracker
  启动后,Hadoop自动识别。
  此步骤可选
  在2.79执行bin/hadoop  balancer

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309062-1-1.html 上篇帖子: Cygwin使用hadoop 下篇帖子: mac Hadoop安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表