设为首页 收藏本站
查看: 588|回复: 0

[经验分享] Centos5.6下安装Hadoop完全分布式模式

[复制链接]

尚未签到

发表于 2016-12-8 09:36:20 | 显示全部楼层 |阅读模式
  实验环境



  • 系统 : centos 5.6
  • JDK  :  jdk-6u26-linux-i586-rpm.bin
  • 账号 : hadoop
  • 目录 : /usr/local/hadoop
  • 主机名 :master slave1 slave2

  实验目的

  组建三台机器的群集



  • master: 部署namecode,JobTracker,DataNode,TaskTracker
  • slave1: 部署JobTracker,DataNode,TaskTracker
  • slave2: 部署JobTracker,DataNode,TaskTracker
  其实这个不是最好的组建方法。实验为了更好的测试多节点而这样设置。


  安装



  • 请确保每台机器都安装了sun jdk 将hadoop安装在相同的目录(/usr/local/hadoop)。
  • 请确保hadoop/conf/hadoop-env.sh 中JAVA_HOME=/usr/java/jdk1.6.0_26 设置并且正确。
  • 每台机器创建hadoop账户。

#useradd hadoop
#passwd hadoop


  • 确保master能无密码登录。

$ssh-keygent -t dsa (我将密码设置为空方便测试。正常环境请安装keychain,keychain安装
)
$cd .ssh
$cat cat id_rsa.pub > authorized_keys
$chmod 600 authorized_keys  (将权限设置为600否者ssh将不读取公钥信息)




    • 分发public key



$ssh-copy-id slave1
$ssh-copy-id slave2

  配置文件概述



  • NameNode   : core-site.xml
  • JobTracker : mapred-site.xml
  • DataNode   : hdfs-site.xml
  • master     : masters
  • slave      : slaves

  配置



  • 编辑namenode的配置文件

  $vi core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.60.149:9000/</value>   
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/hadooptmp</value>
</property>
</configuration>


  • 编辑JobTracker的配置

  $vi mapred-site.xml   
<configuration>
<property>
<name>mapred.job.tracker</name>   
<value>192.168.60.149:9001</value>
</property>
<property>
<name>mapred.local.dir</name>
<value>/usr/local/hadoop/mapred/local</value>
</property>
<property>
<name>mapred.system.dir</name>
<value>/tmp/hadoop/mapred/system</value>
</property>
</configuration>


  • 编辑DataNode配置

  $vi hdfs-site.xml
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
<property>
<name>dfs.replication</name>   
<value>3</value>
</property>
</configuration>


  • 修改slave1,slave2的配置

    • 修改slave1,slave2的JobTracker的配置



  $vi mapred-site.xml   
<configuration>
<property>
<name>mapred.job.tracker</name>   
<value>192.168.60.149:9001</value>
</property>
<property>
<name>mapred.local.dir</name>
<value>/usr/local/hadoop/mapred/local</value>
</property>
<property>
<name>mapred.system.dir</name>
<value>/tmp/hadoop/mapred/system</value>
</property>
</configuration>




    • 修改slave1,slave2的DataNode配置



  $vi hdfs-site.xml
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
<property>
<name>dfs.replication</name>   
<value>3</value>
</property>
</configuration>


  • 设置master

  $vi masters
master


  • 设置slave

  $vi slaves
master
slave1
slave2

  运行



  • 格式化namenode

  $$bin/hadoop namenode -format


  • 启动所有进程

  $/usr/local/hadoop/bin/start-all.sh
starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-namenode-master.out
master: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-datanode-master.out
slave2: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-datanode-slave2.out
slave1: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-datanode-slave1.out
master: starting secondarynamenode, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-secondarynamenode-master.out
starting jobtracker, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-jobtracker-master.out
slave1: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-tasktracker-slave1.out
slave2: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-tasktracker-slave2.out
master: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-yueyang-tasktracker-master.out

  测试



  • 分布式文件系统测试




    • 查看 http://master:50030
      nodes里面是3证明三个节点正常接入
    • 创建测试pustest文件夹用于分布式文件系统测试



  $bin/hadoop dfs -mkdir pustest




    • 将conf/hadoop-env.sh放到pushtest目录 用于测试。



  $bin/hadoop dfs -put conf/hadoop-env.sh pushtest




    • http://master:50070
      Browse the filesystem 发现跳转slave1 or slave2 证明分布式文件系统正常。


  • hadoop默认开放web状态展示访问地址为

  http://localhost:50070;
http://localhost:50030;


  • 简单的daemo

hadoop自带一些简单的实例。测试下单词统计功能。
$bin/hadoop jar hadoop-examples-0.20.203.0.jar wordcount pushtest testoutput
运行后将可以在web界面看见job的状态。和完成的状态。
具体单词数量等统计结果要查看
$bin/hadoop fs -ls
drwxr-xr-x   - hadoop supergroup          0 2011-07-11 11:13 /user/hadoop/test
drwxr-xr-x   - hadoop supergroup          0 2011-07-11 11:15 /user/hadoot/testoutput
$bin/hadoop fs -ls testoutput
Found 3 items
-rw-r--r--   1 hadoop supergroup          0 2011-07-11 16:31 /user/hadoop/shanyang1/_SUCCESS
drwxr-xr-x   - hadoop supergroup          0 2011-07-11 16:30 /user/hadoop/shanyang1/_logs
-rw-r--r--   1 hadoop supergroup      32897 2011-07-11 16:31 /user/hadoop/shanyang1/part-r-00000
$bin/hadoop fs -cat /user/hadoop/shanyang1/part-r-00000   将可以看到详细的统计信息

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-311316-1-1.html 上篇帖子: hadoop(6)2.6.0 and Example 下篇帖子: 【转】修改hadoop的备份系数dfs.replication
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表