设为首页 收藏本站
查看: 937|回复: 0

[经验分享] hadoop学习与实践

[复制链接]

尚未签到

发表于 2016-12-4 08:43:51 | 显示全部楼层 |阅读模式
  由于工作需要开始研究测试hadoop,记录一下学习过程,大家一起交流一下。
  1、hadoop的介绍我就不多说了,google一下有很多。
  2、下载hadoop相关软件,包括了hadoop-0.20.203.0rc1.tar.gz、hive-0.7.0.tar.gz、pig-0.8.1.tar.gz,由于我们暂时不使用Hbase,所以没有下载Hbase,有兴趣的童鞋可以自己下载玩一玩。
  3、安装部署,测试的部署结构如下:
  10.0.2.49 NameNode JobNode
  10.0.2.47 DataNode TaskNode
  10.0.2.50 DataNode TaskNode
  1)、首先分别在三台机器上创建hadoop用户;上传hadoop-0.20.203.0rc1.tar.gz分别到三台机器的hadoop目录下。
  以下在10.0.2.49上完成
  2)、上在hadoop主目录下创建hadoop文件夹,解压缩hadoop安装包到hadoop的目录下,切换到hadoop-0.20.203.0下显示的目录为:/home/hadoop/hadoop/hadoop-0.20.203.0
  3)、切换到conf目录下,创建hadoop-site.xml文件,大致内容如下:
  <configuration> 
  <property>
  <name>fs.default.name</name>
  <value>hdfs://10.0.2.49:9000/</value>
  </property>
  <property> 
  <name>mapred.job.tracker</name> 
  <value>10.0.2.49:9010</value> 
  </property> 
  <property> 
  <name>dfs.replication</name> 
  <value>1</value> 
  </property> 
  <property>    
  <name>hadoop.tmp.dir</name> 
  <value>/home/hadoop/hadoop/tmp</value>
  </property>
  <property>   
  <name>mapred.child.java.opts</name> 
  <value>-Xmx512m</value>
  </property>
  <property>  
  <name>dfs.block.size</name>
  <value>5120000</value>  
  <description>The default block size for new files.</description>
  </property>
  <property>
  <name>dfs.datanode.max.xcievers</name>
  <value>4096</value>
  </property>
  </configuration>
  详细属性配置以后再解释,主要是fs.default.name指定NameNode位置,指明JobNode位置,hadoop.tmp.dir指明临时文件夹位置,编辑完文件保存。
  4)、编写slaves文件,填写如下:
  10.0.2.50
  10.0.2.47
  指定从属节点ip,从属节点完成DataNode和TaskNode的任务。
  5)、编写masters文件,指定NameNode节点ip
  10.0.2.49
  以下内容在其他机器上完成
  6)、按照如上方法配置其他机器。
  4、创建临时文件夹/home/hadoop/hadoop/tmp。
  5、格式化存储数据文件,调用hadoop_home下的hadoop命令,“hadoop namenode -format” 如果出现java找不到,需要修改conf/hadoop-env.sh中的“# export JAVA_HOME=/usr/lib/j2sdk1.5-sun” 为你自己的jdk位置,要求是1.6以上版本。没有异常则表明已经格式化好了。
  6、启动Hdfs,在10.0.2.49机器上,使用命令bin/start-dfs.sh启动,注意该命令会调用ssh访问slaves文件中指定的ip启动其他从属节点的hadoop进程,所以需要输入密码,用户名使用的是当前用户名。
  7、启动MapReduce,在10.0.2.49机器上,使用命令bin/start-mapred.sh启动,该命令同样调用ssh。
  8、启动完成标识,在slaves机器上的进程如下:
  889 DataNode
  1061 TaskTracke
  在master机器上的进程如下:
  2885 JobTracker
  2573 NameNode
  2759 SecondaryNameNode
  也可以用http://10.0.2.49:50070查看文件系统,使用http://10.0.2.49:50030/查看任务情况。
  到目前为止Hadoop系统就算启动成功了 DSC0000.gif

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309325-1-1.html 上篇帖子: hadoop升级小记 下篇帖子: Hortonworks 启动 Hadoop-0.23
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表