设为首页 收藏本站
查看: 566|回复: 0

[经验分享] Hadoop学习十二:Hadoop-Hdfs Storage源码

[复制链接]

尚未签到

发表于 2016-12-4 09:23:58 | 显示全部楼层 |阅读模式
一.物理文件夹和文件与类的对应关系
DSC0000.jpg


  •  Storage:存储信息文件的集合。由一系列StorageDirectory组成,这些StorageDirectory的VERSION相同。Storage对应着Hdfs的dfs.data.dir或dfs.name.dir目录,默认为%hadoop_home%/dfs/data或%hadoop_home%/dfs/name。DataNode可以配置多个dfs.data.dir,如dfs/data,dfs/data2,此时就有两个Sorage。
  • StorageDirectory:一个存储信息文件。代表Storage下涉及到升级方面的文件,它们共享一个in_use.lock(图上未标出这层关系)。
  • StorageInfo:存储信息文件的父类。



二.类图
DSC0001.jpg

三.StorageInfo

public class StorageInfo {
//Hadoop版本号,如果Hadoop调整文件结构布局,版本号就会修改,这样可以保证文件结构和应用一致
//参考FSConstants.LAYOUT_VERSION=-32的定义:
// Version is reflected in the dfs image and edit log files.Version代表image和editlos存储文件的结构
// Version is reflected in the data storage file.Version代表data存储文件的结构
// Versions are negative.Versions是负数。
// Decrement LAYOUT_VERSION to define a new version.
public int   layoutVersion;  
//NameNode节点的namespaceID在它format是生成,每格式化一次,就会产生一个新的namespaceID
//DataNode节点的每一个StorageDirectory的namespaceID必须与NameNode节点的namespaceID保持一致
public int   namespaceID;  
//FsImage format时赋值
public long  cTime;          // creation timestamp
}
//参考FsImage.format()
//public void format() throws IOException {
//    this.layoutVersion = FSConstants.LAYOUT_VERSION;
//    this.namespaceID = newNamespaceID();
//    this.cTime = 0L;
//    this.checkpointTime = FSNamesystem.now();
//   ...
//    }
//  }
四.StorageDirectory

  //一个Storage包含一系列StorageDirectory,它们共享一个in_use.lock
public class StorageDirectory {
File              root; //对应dfs.data.dir或dfs.name.dir目录
FileLock          lock;//对应dfs.data.dir或dfs.name.dir目录下in_use.lock
StorageDirType dirType; // storage dir type

//读取dfs.data.dir/current/VERSION或dfs.name.dir/current/VERSION
//read里调用getFields,读取dfs.data.dir/current/VERSION或dfs.name.dir/current/VERSION到this
public void read() throws IOException {
read(getVersionFile());
}
//write里调用setFields,把this的属性写到dfs.data.dir/current/VERSION或dfs.name.dir/current/VERSION
public void write() throws IOException {
corruptPreUpgradeStorage(root);
write(getVersionFile());
}
//读取Storage下任何一个StorageDirectory
public File get*Dir() {
return new File(root,  ...);
}

//During startup Hadoop servers (name-node and data-nodes) read their local
 * storage information from them.
//根据启动参数判断系统处于哪个状态
public StorageState analyzeStorage(StartupOption startOpt) throws IOException {
//见图状态分析
}
//Complete or recover storage state from previously failed transition.
public void doRecover(StorageState curState) throws IOException {
//见图恢复操作
}
//lock this storage
public void lock() throws IOException {
this.lock = tryLock();
}
//unlock this storage
public void unlock() throws IOException {
this.lock.release();
lock.channel().close();
lock = null;
}
}
五.Storage

public abstract class Storage extends StorageInfo {
private   static final String STORAGE_FILE_LOCK     = "in_use.lock";
protected static final String STORAGE_FILE_VERSION  = "VERSION";
public static final String STORAGE_DIR_CURRENT   = "current";
private   static final String STORAGE_DIR_PREVIOUS  = "previous";
private   static final String STORAGE_TMP_REMOVED   = "removed.tmp";
private   static final String STORAGE_TMP_PREVIOUS  = "previous.tmp";
private   static final String STORAGE_TMP_FINALIZED = "finalized.tmp";
private   static final String STORAGE_TMP_LAST_CKPT = "lastcheckpoint.tmp";
private   static final String STORAGE_PREVIOUS_CKPT = "previous.checkpoint";
public enum StorageState {
NON_EXISTENT,
NOT_FORMATTED,
COMPLETE_UPGRADE,
RECOVER_UPGRADE,
COMPLETE_FINALIZE,
COMPLETE_ROLLBACK,
RECOVER_ROLLBACK,
COMPLETE_CHECKPOINT,
RECOVER_CHECKPOINT,
NORMAL;
}
//StorageDirectory下的文件类型
public interface StorageDirType {
public StorageDirType getStorageDirType();
public boolean isOfType(StorageDirType type);
}
//节点类型
private NodeType storageType;    // Type of the node using this storage
protected List<StorageDirectory> storageDirs = new ArrayList<StorageDirectory>();
//迭代Storage包含的所有StorageDirectory
public Iterator<StorageDirectory> dirIterator(StorageDirType dirType) {
return new DirIterator(dirType);
}
protected Storage(NodeType type) {
super();
this.storageType = type;
}
//StorageDirectory.read()调用此方法,读取dfs.data.dir/current/VERSION或dfs.name.dir/current/VERSION到this
//因为所有的StorageDirectory具有相同的VERSION,所以可以把任意一个StorageDirectory的VERSION写到this的这四个属性
//write同read
protected void getFields(Properties props,  StorageDirectory sd ) throws IOException {
String sv, st, sid, sct;
sv = props.getProperty("layoutVersion");
st = props.getProperty("storageType");
sid = props.getProperty("namespaceID");
sct = props.getProperty("cTime");
layoutVersion = rv;
storageType = rt;
namespaceID = rid;
cTime = rct;
}
//StorageDirectory.write()调用此方法,把this的属性写到dfs.data.dir/current/VERSION或dfs.name.dir/current/VERSION
protected void setFields(Properties props, StorageDirectory sd ) throws IOException {
props.setProperty("layoutVersion", String.valueOf(layoutVersion));
props.setProperty("storageType", storageType.toString());
props.setProperty("namespaceID", String.valueOf(namespaceID));
props.setProperty("cTime", String.valueOf(cTime));
}
}
六.VERSION例子

#Sun May 12 10:25:01 CST 2013
namespaceID=1378739863
storageID=DS-1718846927-192.168.1.164-50010-1368305080745
cTime=0
storageType=DATA_NODE
layoutVersion=-32
#Mon May 13 03:26:48 CST 2013
namespaceID=1378739863
cTime=0
storageType=NAME_NODE
layoutVersion=-32

七.最核心的方法StorageDirectory.analyzeStorage和doRecover


  • 这两个方法就是对整个Storage状态分析和恢复操作。
  • 下文会结合DataNode启动流程把整个串起来。本文先了解这两个方法,当然你必须先了解Hadoop的系统状态。 DSC0002.jpg DSC0003.gif
  • 说明:第二张图少了一步。lastcheckpoint.tmp存在之前,首先分析当前StorageDirectory的root是否存在或是否可写或是否文件夹,不满足以上任何一点返回状态StorageState.NON_EXISTENT;满足后才是判断lastcheckpoint.tmp存在。

八.感谢作者的最后一张图
  http://www.cnblogs.com/xuxm2007/archive/2012/07/04/2576745.html

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309371-1-1.html 上篇帖子: Hadoop 基础知识 下篇帖子: 如何搭建Hadoop集群
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表