设为首页 收藏本站
查看: 857|回复: 0

[经验分享] Hadoop源代码eclipse编译教程

[复制链接]

尚未签到

发表于 2016-12-7 08:10:11 | 显示全部楼层 |阅读模式
hadoop是一个分布式存储和分布式计算的框架。在日常使用hadoop时,我们会发现hadoop不能完全满足我们的需要,我们可能需要修改hadoop的源代码并重新编译、打包。

下面将详细描述如何从svn上导入并对hadoop进行eclipse下编译。

 

因项目使用的hadoop版本是0.20.2,所以我们基于hadoop-0.20.2来进行二次开发。

 

(1)首先从svn上签出源代码,svn地址:

 

Url代码   DSC0000.png


  • http://svn.apache.org/repos/asf/hadoop/common/tags/release-0.20.2/  

 

 

(2)在下载的过程中,准备开发和编译环境。windows下至少需要安装如下软件:

 

Java代码  


  • JDK 6--需要设置PATH环境变量  
  • ant  
  •   --下载解压后,需要将ant的bin目录添加到PATH的环境变量上  
  • cygwin  
  •    --安装cygwin参考http://ebiquity.umbc.edu/Tutorials/Hadoop/03%20-%20Prerequistes.html 进行安装和配置。在选择cygwin的安装包尽量多选,以方便日后的开发  

  
 
安装好之后,需要将Ant 和Cygwin 的bin 目录加入到环境变量PATH 中,如下图所示:
DSC0001.jpg
 

 

 

(3)从svn签出后,使用命令行进入hadoop下载的HOME目录,执行命令:

 

Java代码  


  • $ ant  

 

     此时,ant开始下载依赖和编译文件。我在编译的时候编译错误。经查,是$hadoop_home/src/saveVersion.sh生成的package-info.java有问题,导致无法编译过去。将saveVersion.sh修改一下:

 

Java代码  


  • unset LANG  
  • unset LC_CTYPE  
  • version=$1  
  • user=`whoami` #此处修改成固定值,如jbm3072  
  • date=`date`  
  • if [ -d .git ]; then  
  •   revision=`git log -1 --pretty=format:"%H"`  
  •   hostname=`hostname`  
  •   branch=`git branch | sed -n -e 's/^* //p'`  
  •   url="git://$hostname/$cwd on branch $branch"  
  • else  
  •   revision=`svn info | sed -n -e 's/Last Changed Rev: \(.*\)/\1/p'`  
  •   url=`svn info | sed -n -e 's/URL: \(.*\)/\1/p'`  
  • fi  
  • mkdir -p build/src/org/apache/hadoop  
  • cat << EOF | \  
  •   sed -e "s/VERSION/$version/" -e "s/USER/$user/" -e "s/DATE/$date/" \  
  •       -e "s|URL|$url|" -e "s/REV/$revision/" \  
  •       > build/src/org/apache/hadoop/package-info.java  
  • /* 
  •  * Generated by src/saveVersion.sh 
  •  */  
  • @HadoopVersionAnnotation(version="VERSION", revision="REV",   
  •                          user="USER", date="DATE", url="URL")  
  • package org.apache.hadoop;  
  • EOF  

  
 

    修改后,应该就可以编译通过了。

 

(4)  将eclipse-files copy到工程目录下

    执行命令:

Java代码  


  • ant eclipse-files   

    就可以将eclipse-files copy到工程目录下。

(5)导入工程

 

    打开eclipse,在File中选择Import,然后选择General->Exsiting Projects into Workspace, 点击next,然后选择Hadoop源代码目录,此时就可以识别hadoop为eclipse工程了,点击Finish,稍过片刻,一个没有错误的eclipse 工程就OK了。

 

   (6)现在你就可以基于eclipse来进行修改hadoop源代码了。

 

 

 

 

搭建HADOOP便宜环境的时候,报错:
compile-core-classes:
       [javac] Compiling 386 source files to F:\hadoop\common\trunk\build\classes
       [javac] F:\hadoop\common\trunk\build\src\org\apache\hadoop\package-info.java:5: 未结束的字符串字面值
       [javac]                          user="boliang-pcboliang
       [javac]                               ^
       [javac] F:\hadoop\common\trunk\build\src\org\apache\hadoop\package-info.java:6: 需要为 class、interface 或 enum
       [javac] ", date="Sun Jun 27 09:16:51     2010", url="file:///cygdrive/f/hadoop/common/trunk",
       [javac] ^
       [javac] F:\hadoop\common\trunk\build\src\org\apache\hadoop\package-info.java:6: 需要为 class、interface 或 enum
       [javac] ", date="Sun Jun 27 09:16:51     2010", url="file:///cygdrive/f/hadoop/common/trunk",
       [javac]          ^
       [javac] 3 错误

解决办法:

打开build.XML,注释掉   

<exec executable="sh">
       <arg line="src/saveVersion.sh ${version} ${build.dir}"/>
    </exec>

部分 注释掉自动生成package-info.java
这样就解决问题了。

  由于直接ant package时,会进行java5.check和forrest.check,会报错,导致如下的报错:
java5.check:

BUILD FAILED
/opt/hadoop-history/hadoop-0.20.2/build.xml:908: 'java5.home' is not defined.  Forrest requires Java 5.  Please pass -Djava5.home=<base of Java 5 distribution> to Ant on the command-line.

因此这里我们的做法是对$HADOOP_HOME目录下的build.xml文件进行修改,两句注释掉,修改成如下所示:
<target name="forrest.check" unless="forrest.home" depends="java5.check">
<!--fail message="'forrest.home' is not defined. Please pass -Dforrest.home=&lt;base of Apache Forrest installation&gt; to Ant on the command-line." /-->
</target>

<target name="java5.check" unless="java5.home">
<!--fail message="'java5.home' is not defined.  Forrest requires Java 5.  Please pass -Djava5.home=&lt;base of Java 5 distribution&gt; to Ant on the command-line." /-->
</target>

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-310667-1-1.html 上篇帖子: hadoop 2-state machine-(1) 下篇帖子: hadoop中top-k问题解决
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表