设为首页 收藏本站
查看: 960|回复: 0

[经验分享] Hadoop的基础配置

[复制链接]

尚未签到

发表于 2016-12-5 10:03:02 | 显示全部楼层 |阅读模式
 1.  下载hadoop安装包
   可以到这个网站上下载http://www.apache.org/dist//hadoop/core/如果下载不下来自己到网上找找很多的。选一个版本下载。我用的是hadoop-0.20.2
2.解压到一个目录下。随便选择按个目录。建议直接选择一个根目录。随后进行配置。这里配置的是伪分布式了。需要配置四个文件。都在conf目录下。分别为:hadoop-env.shcore-site.xmlhdfs-site.xmlmapred-site.xml。下面逐一说明:
3.hadoop-env.sh
     这个文件中主要配置JAVA_HOME路径。需要注意的是:1.jkd1.6以上版本。2.路径应该是linux风格的。打开后将export前面的#注释符去掉,路径为/cygdrive/你的jdk路径。如果路径中有空格需要将路径用‘’括起来。设置后如下图:

DSC0000.png
 
 
4. core-site.xml
      配置属性很多。到也可以简化自己设置几个属性就可以了。这里我们直接复制src/core下的core-default.xmlconf下并改名为core-site.xml替换原来的。修改下列属性如下:<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />
<property>
            <name>hadoop.tmp.dir</name>
            <value>/hadoop/tmp</value>
            <description>A base for other temporary directories.</description>
</property>
     设置临时的文件hadoop默认中有了但重启后会被删除所以还得需要格式化所以手动设定一个。避免格式化。
<property>
            <name>fs.default.name</name>
            <value>hdfs://localhost:9000</value>
 </property>
5. hdfs-site.xml
这个也同样到src/hdfs下把hdfs-default.xml复制到conf下改名替换。修改下列属性:
       <property>
           <name>dfs.name.dir</name>
           <value>/hadoop/name</value>
           <description> </description>
       </property>
       DFS名节点存放位置
       <property>
           <name>dfs.data.dir</name>
           <value>/hadoop/data</value>
           <description></description>
       </property>
       DFS数据节点存放位置
       <property>
           <name>dfs.replication</name>
           <value>1</value>
           <description></description>
       </property>
       存放副本数,这是为了安全考虑的在集群中要多放几个。咱们是伪分布式的就一个可以了。
6. mapred-site.xml
这个也同样到src/mapred中把mapred-default.xml复制到conf中改名替换。修改下列属性:
       <property>
           <name>mapred.job.tracker</name>
           <value>localhost:9001</value>
           <description></description>
       </property>
     MapReduce jog tracker运行在所在主机及端口号。
       <property>
           <name>mapred.local.dir</name>
           <value>/hadoop/temp</value>
           <description> </description>
       </property>
    MapReduce的运行中间数据文件的存放路径
7. 这就可以了。设置就结束了。下面运行试一试。
使用cygwin进入到hadoop安装路径下的bin文件夹中。查看显示如下:

DSC0001.png
  
首先格式化:./hadoop namenode format 如果让选择Y/N 选择Y。如下图:


DSC0002.png
  
其次运行:./start-sh.all 如下图则成功了。总共会启动五个节点。


DSC0003.png
  
最后:运行一下自带的wordcount例子。
1.先在本地文件建立一个文件夹(最好建在hadoop的安装文件在同一个目录下)testin随后在里面建几个文件txtjava的随意。在里面输入以下英文单字。如file1.java 内容Hello world file2.java 内容:I love you 
2.cygwin中将一个hadoop hdfs上的目录如testin。命令如下:
./hadoop dfs mkdir testin
3.将本地的两个文件上传到dfs上去。
./hadoop dfs put /testin/*.java testin
     此时运行./hadoop dfs ls testin 就会就会发现已有了这两个文件了。
     23步执行如下图:


DSC0004.png
 
     4.执行
   ./hadoop jar ./../hadoop-0.20.2-examples.jar wordcount testin testout
如下图则成功了

DSC0005.png
 
 
5.查看结果
   ./hadoop dfs -ls testout 会发现下面有两个文件一个是日志一个是结果文件。
   ./hadoop dfs -cat testout/part-r-00000 查看统计单字的结果文件
执行如下图:

DSC0006.png
 
 至此hadoop就安装配置都已结束并经过测试已经可以正常运行了。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309905-1-1.html 上篇帖子: 我个人理解的 hadoop 下篇帖子: Hadoop 详细配置步骤
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表