设为首页 收藏本站
查看: 486|回复: 0

[经验分享] hadoop学习笔记<二>----hadoop集群环境的配置

[复制链接]

尚未签到

发表于 2016-12-4 09:37:15 | 显示全部楼层 |阅读模式
  主要步骤请参考 http://dngood.blog.iyunv.com/446195/775368。
  里边的步骤都比较详细(也就是如何去配置hadoop环境 ,即 how)。
  这里我着重记录下为什么要这样做(也就是why)
  操作系统环境:
  linux (GNU/Linux是hadoop产品开发和运行的平台。)
  完全分布式模式只能布置在linux下(unix未测试,hadoop官方也未给出明确说明。 windows目前来说只能作为一个开发平台,而不能作为一个运行平台)
  所需软件
  1.java 1.5.x,必须安装,建议选择Sun公司发行的Java版本。(这个也不多说了,hadoop的运行环境)
  2.ssh 必须安装并且保证 sshd一直运行,以便用Hadoop 脚本管理远端Hadoop守护进程。(比如 启动hadoop集群环境时候,start-all.sh 会调用其他机器上的启动脚本,这时候需要权限之类的。 可以简单理解为配置好了ssh,权限这些事情就交给ssh做了)
  3.hadoop  这个...不用多说了
  java 和 ssh 的安装这里就不再多说,网上很容易搜到。
  ssh的配置 文中讲的也是比较清楚的,如果想更多的了解ssh,可以参考原文作者给出的ssh连接。http://dngood.blog.iyunv.com/446195/724207
  配置 host和主机名
  修改/etc/hosts文件。给集群的机器ip地址起一个别名,在下边的配置文件中(如原文中的 四 hadoop 配置  一章)更容易使用和理解。
  linux下创建hadoop用户
  理论上不创建也可以,但是还是很建议单独创建hadoop用户,便于管理。
  配置 hadoop配置文件时候的注意事项:
      在修改配置文件时候,value里边的 namenode之类的字段,是要在/etc/hosts 里边的存在的host,不然可能找不到结点。
      <name>mapred.job.tracker</name>
      <value>namenode:9001</value>
  修改 hadoop/conf/core-site.xml 时候的注意事项:
  要配置hadoop.tmp.dir,不然重启机器之后,会造成http://yourNameNode:50070/dfshealth.jsp 不能访问的问题。(log会报 INFO org.apache.hadoop.ipc.RPC: Server at localhost/127.0.0.1:9000 not available yet, Zzzzz... )
  <property>
      <name>fs.default.name</name>
      <value>hdfs://localhost:9000</value>
  </property>
  <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/hadoop/hadooptmp</value>
      <description>A base for other temporary directories.</description>
  </property> 
  远程拷贝的命令:scp
  eg:scp -r hadoop hadoop@datanode1:/home/hadoop/
  启动hadoop集群环境后,测试结点是否正常工作的命令: jps
     jps位于jdk的bin目录下,其作用是显示当前系统的java进程情况,及其id号。
  
  PS:用了几天才发现,这些都是很入门的配置,too young,too simple。路还很长...

    ==============================================================
  我也是刚开始学习hadoop,学习的资料来自于 《hadoop实战》和《hadoop权威指南》 以及网上搜到的一些资料。
  这些笔记是学习的过程中自己积累的,然后用更加浅显的话表述出来,希望也能帮助到初学者。当然里边会有很多错误,也希望大家指出,我会认真改正,谢谢

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309388-1-1.html 上篇帖子: 开发提交hadoop自动运行--hadoop运行低级错误 下篇帖子: 渐进式Hadoop学习方案
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表