设为首页 收藏本站
查看: 702|回复: 0

[经验分享] Hadoop心跳机制源码分析

[复制链接]

尚未签到

发表于 2016-12-7 06:47:24 | 显示全部楼层 |阅读模式
Hadoop心跳机制源码分析

正文:

一.体系背景

首先和大家说明一下:hadoop的心跳机制的底层是通过RPC机制实现的,这篇文章我只介绍心跳实现的代码,对于底层的具体实现,大家可以参考我的另几篇博客:

1. hadoop的RPC机制(参考:http://weixiaolu.iyunv.com/blog/1504898 )
2. 动态代理(参考 :http://weixiaolu.iyunv.com/blog/1477774 )
3. Java NIO(参考 :http://weixiaolu.iyunv.com/blog/1479656 )

以上三篇文章和这篇文章完整地分析了hadoop的数据传输过程。大家可以当成一个体系来阅读。

二.心跳机制

1. hadoop集群是master/slave模式,master包括Namenode和Jobtracker,slave包括Datanode和Tasktracker。

2. master启动的时候,会开一个ipc server在那里,等待slave心跳。

3. slave启动时,会连接master,并每隔3秒钟主动向master发送一个“心跳”,这个时间可 以通过”heartbeat.recheck.interval”属性来设置。将自己的状态信息告诉master,然后master也是通过这个心跳的返回值,向slave节点传达指令。

4. 需要指出的是:namenode与datanode之间的通信,jobtracker与tasktracker之间的通信,都是通过“心跳”完成的。

三.Datanode、Namenode心跳源码分析

既然“心跳”是Datanode主动给Namenode发送的。那Datanode是怎么样发送的呢?下面贴出Datanode.class中的关键代码:

代码一:
Java代码  收藏代码
/**
   * 循环调用“发送心跳”方法,直到shutdown
   * 调用远程Namenode的方法
   */  
  public void offerService() throws Exception {  
···  
    while (shouldRun) {  
      try {  
        long startTime = now();  
         // heartBeatInterval是在启动Datanode时根据配置文件设置的,是心跳间隔时间  
        if (startTime - lastHeartbeat > heartBeatInterval) {  
          lastHeartbeat = startTime;  
//Datanode发送心跳  
          DatanodeCommand[] cmds = namenode.sendHeartbeat(dnRegistration,  
                                                       data.getCapacity(),  
                                                       data.getDfsUsed(),  
                                                       data.getRemaining(),  
                                                       xmitsInProgress.get(),  
                                                       getXceiverCount());  
          myMetrics.addHeartBeat(now() - startTime);  
           
          if (!processCommand(cmds))  
            continue;  
        }  
         
      ···  
      }  
    } // while (shouldRun)  
  } // offerService  

需要注意的是:发送心跳的对象并不是datanode,而是一个名为namenode的对象,难道在datanode端就直接有个namenode的引用吗?其实不然,我们来看看这个namenode吧:

代码二:
Java代码  收藏代码
public DatanodeProtocol namenode = null;  

namenode其实是一个DatanodeProtocol的引用,在对hadoop RPC机制分析的文章中我提到过,这是一个Datanode和Namenode通信的协议,其中有许多未实现的接口方法,sendHeartbeat()就是其中的一个。下面看看这个namenode对象是怎么被实例化的吧:

代码三:
Java代码  收藏代码
this.namenode = (DatanodeProtocol)   
    RPC.waitForProxy(DatanodeProtocol.class,  
                     DatanodeProtocol.versionID,  
                     nameNodeAddr,   
                     conf);  

其实这个namenode并不是Namenode的一个对象,而只是一个Datanode端对Namenode的代理对象,正是这个代理完成了“心跳”。代理的底层实现就是RPC机制了。参考博客:http://weixiaolu.iyunv.com/blog/1504898 。

四.Tasktracker、Jobtracker心跳源码分析

同样我们从Tasktracker入手,下面贴出Tasktracker.class的关键代码:

代码四:
Java代码  收藏代码
代码一:  
State offerService() throws Exception {  
    long lastHeartbeat = System.currentTimeMillis();  
    while (running && !shuttingDown) {  
     ···  
         
        // 发送心跳,调用代码二  
        HeartbeatResponse heartbeatResponse = transmitHeartBeat(now);  
  
      ···  
    return State.NORMAL;  
  }  
  
代码二:  
HeartbeatResponse transmitHeartBeat(long now) throws IOException {  
   ···  
    HeartbeatResponse heartbeatResponse = jobClient.heartbeat(status,   
                                                              justStarted,  
                                                              justInited,  
                                                              askForNewTask,   
                                                         heartbeatResponseId);                                
···  
    return heartbeatResponse;  
  }  

其实我觉得分析到这里大家就可以自己分析了,jobClient也是一个协议:

代码五:
Java代码  收藏代码
InterTrackerProtocol jobClient;  

该协议用于定义Tasktracker和Jobtracker的通信。同样,它也是一个代理对象:

代码六:
Java代码  收藏代码
this.jobClient = (InterTrackerProtocol)   
UserGroupInformation.getLoginUser().doAs(  
     new PrivilegedExceptionAction<Object>() {  
   public Object run() throws IOException {  
     return RPC.waitForProxy(InterTrackerProtocol.class,  
         InterTrackerProtocol.versionID,  
         jobTrackAddr, fConf);  
   }  
});  

代理的底层实现也是RPC机制。参考博客:http://weixiaolu.iyunv.com/blog/1504898 。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-310574-1-1.html 上篇帖子: Hadoop Tool,ToolRunner原理分析 下篇帖子: mapreduce模式与hadoop框架
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表