设为首页 收藏本站
查看: 1225|回复: 0

[经验分享] 2018-07-19期 Hadoop HDFS DataNode功能

[复制链接]

尚未签到

发表于 2018-10-28 11:19:11 | 显示全部楼层 |阅读模式
  一、DataNode功能及特性
  (1)提供真实文件数据的存储服务。
  (2)文件块(block):最基本的存储单位。对于文件内容而言,一个文件的长度大小是size,那么从文件的0偏移开始,按照固定的大小,顺序对文件进行划分并编号,划分好的每一个块称一个Block。
  (3)HDFS默认Block大小是128MB,以一个256MB文件,共有256/128=2个Block. 不同于普通文件系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间,   (这样设置可以减轻namenode压力,因为namonode维护着文件与数据块列表的对应大小)
  (4)Replication。多复本。默认是三个。(hdfs-site.xml的dfs.replication属性)
  注意区别:一个文件可以产生多个快,多个文件是不可能成为一个块信息的,处于减轻namenode的压力,最好的方式就是一个文件一个块
  二、DataNode 存储目录的文件结构以及特点
  DataNode数据保存在如下目录:
  $HADOOP_HOME/tmp/dfs/data
  [root@hadoop-server01 data]# ll
  total 8
  drwxr-xr-x. 3 root root 4096 Jun 15 00:51 current
  -rw-r--r--. 1 root root   20 Jul 15 22:21 in_use.lock
  [root@hadoop-server01 data]# cd current/
  [root@hadoop-server01 current]# ll
  total 8
  drwx------. 4 root root 4096 Jul 15 22:21 BP-1300855425-192.168.1.201-1529048649163
  -rw-r--r--. 1 root root  229 Jul 15 22:21 VERSION
  /usr/local/apps/hadoop-2.4.1/tmp/dfs/data/current/BP-1300855425-192.168.1.201-1529048649163/current/finalized
  [root@hadoop-server01 finalized]# ll blk_107374*
  -rw-r--r--. 1 root root 134217728 Jun 18 18:46 blk_1073741825
  -rw-r--r--. 1 root root   1048583 Jun 18 18:46 blk_1073741825_1001.meta
  -rw-r--r--. 1 root root   4439028 Jun 18 18:46 blk_1073741826
  -rw-r--r--. 1 root root     34687 Jun 18 18:46 blk_1073741826_1002.meta
  -rw-r--r--. 1 root root        11 Jul  4 23:38 blk_1073742895_2071.meta
  drwxr-xr-x. 2 root root      4096 Jun 22 08:21 subdir0
  drwxr-xr-x. 2 root root      4096 Jun 22 08:21 subdir1
  drwxr-xr-x. 2 root root      4096 Jun 22 08:21 subdir10
  drwxr-xr-x. 2 root root      4096 Jun 22 08:21 subdir11
  drwxr-xr-x. 2 root root      4096 Jun 22 08:21 subdir12
  blocksBeingWritten:保存了客户端发起的,当前正在写的数据块;
  detach:用于配合数据节点升级,==数据块分离==操作时的临时文件夹;
  tmp:保存了用于数据块复制时,当前正在写的数据块;
  in_user.lock:表示当前目录已经被使用,实现了一种锁机制,这样DataNode可以独自使用该目录;
  current:保存了已写入HDFS文件系统的数据块和一些系统工作时需要的文件;
  blk_开头的文件:HDFS数据块,用来保存HDFS文件内容;
  .meta后缀文件:CRC32校验文件,保存数据块的校验信息;
  当current目录达到一定规模时(由配置项${dfs.datanode.numblocks}指定),DataNode会在current目录下新创建一个子目录subdir*,用于保存新的数据块和元数据。
  默认配置下,current目录下最多只有64个数据块(128个文件)和64个子目录。通过这种手段,DataNode既保证目录不会太深,影响文件检索性能,同时也避免了某个目录保存大量的数据块。


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-627444-1-1.html 上篇帖子: hadoop最新稳定版本dkhadoop版本选择介绍 下篇帖子: 2018-07-20期 Hadoop HDFS SecondaryNamenode功能
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表