设为首页 收藏本站
查看: 808|回复: 0

[经验分享] hadoop开发环境配置(伪分布)

[复制链接]

尚未签到

发表于 2016-12-7 10:11:11 | 显示全部楼层 |阅读模式
Hadoop开发环境
安装插件
0.20.0下原始的eclispe插件无法使用,需要下载网上改造过的:
hadoop-eclipse-plugin-0.20.3-SNAPSHOT.jar
 
copy到eclispe插件目录,然后重启eclispe。
PS:这里出现一个问题,发现在eclispe3.7下插件不会加载,最终删除旧的eclispe,使用新解压的文件解决,可以将旧eclispe插件目录下的文件COPY到新目录。同样可以使用之前的插件。
 
 
配置插件环境
DSC0000.png

  
Hadoop配置更改
之前配置的伪分布模式上,采用的localhost的配置,为使eclispe可以访问,需要更改为IP的配置方式,这里需要注意的是:
需要更改以下的内容:
<!--[if !supportLists]-->1、  <!--[endif]-->修改 /etc/hosts,删除 127.0.0.1 ,添加本机ip的解析。
 
[iyunv@localhost~]# cat /etc/hosts
# Do notremove the following line, or various programs
# thatrequire network functionality will fail.
#127.0.0.1              localhost.localdomain localhost
::1             localhost6.localdomain6 localhost6
192.168.128.133 localhost.localdomain localhost
 
<!--[if !supportLists]-->2、  <!--[endif]-->修改相关配置文件
 
[hadoop@localhostconf]$ cat core-site.xml
<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
 
<!--Put site-specific property overrides in this file. -->
 
<configuration>
     <property>
        <name>fs.default.name</name>
         <value>hdfs://192.168.128.133:9000/</value>
     </property>
</configuration>
 
 
 
[hadoop@localhostconf]$ cat mapred-site.xml
<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
 
<!--Put site-specific property overrides in this file. -->
 
<configuration>
     <property>
        <name>mapred.job.tracker</name>
         <value>192.168.128.133:8021</value>
     </property>
</configuration>
 
<!--[if !supportLists]-->3、  <!--[endif]-->另外SSH也需要查看Knowshosts里面是否有IP,否则会出现错误二,可以执行如下,则自动添加
 
ssh 192.168.128.133
 
<!--[if !supportLists]-->4、  <!--[endif]-->删除原临时目录,重新格式化
 
hadoop namenode –format
 
 
如果不按如上操作,可能会出现下面的错误:
 
错误一:
2011-08-14 09:44:28,206 INFOorg.apache.hadoop.ipc.Server: IPC Server handler 7 on 9000, calladdBlock(/user/hadoop/test.txt, DFSClient_1170937058) from192.168.128.133:37785: error: java.io.IOException: File /user/hadoop/test.txt could onlybe replicated to 0 nodes, instead of 1
java.io.IOException: File /user/hadoop/test.txt couldonly be replicated to 0 nodes, instead of 1
       at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1271)
       atorg.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:422)
       at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
       atsun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
       atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
       at java.lang.reflect.Method.invoke(Method.java:597)
       at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:508)
       at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:959)
       at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:955)
       at java.security.AccessController.doPrivileged(Native Method)
       at javax.security.auth.Subject.doAs(Subject.java:396)
       at org.apache.hadoop.ipc.Server$Handler.run(Server.java:953)
 
 
错误二:
 
This does not map back to the address - POSSIBLE BREAK-INATTEMPT
 
 
Eclispe调试Hadoop配置过程中问题
遇到如下问题:
Cannot run program "chmod":CreateProcess error=2
 
 
 注意:需要安装Cygwin,并设置环境变量。就算不用本地的环境也必须。
 
 
安装Cygwin,并设置Cygwin_HOME/bin到windows Path变量
Cygwin下安装SSH
复制Hadoop文件
拷贝Hadoop项目中的eclipse plugin jar文件到eclipse plugin下
eclipse 在选项设置hadoop home路径,添加hadooplocation(主要设置namenode 机器名端口和jobtracker端口即可)
新建map reduce project
从hadoop项目拷贝WordCount.java文件到新的项目
右键WordCount.java,设置运行参数
右键WordCount.java=> run on hadoop
 
 
注意:
 
windows下跑Hadoop Eclipseplugin,无论是连接本地还是远程,Cygwin是必须的安装的,调试远程不需要配置ssh。
  每个hadoop版本必须和Hadoop Eclipse plugin一直否则无法进行连接和执行程序
 -------------------------------------------------------------------------------------------------------------------
 

作者:CNZQS|JesseZhang  个人博客:CNZQS(http://www.cnzqs.com)

版权声明:除非注明,文章均为原创,可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明 

--------------------------------------------------------------------------------------------------------------------

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-310872-1-1.html 上篇帖子: HBase/Hadoop学习笔记 (转) 下篇帖子: win32下开发hadoop应用程序(二)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表