bmwm3 发表于 2018-8-29 10:14:13

云帆大数据学院_hdfs的Shell操作与管理

HDFS的Shell操作与管理
6.1 启动HDFS
Step01:格式化NameNode
  $ bin/hdfsnamenode –format
  说明:namenode在格式化的时候会产生一个ClusterID。也可以在格式化的时候自定义指定ID:
  bin/hdfsnamenode –format –clusterid yarn-cluster
Step02:启动NameNode
  启动脚本在$HADOOP_HOME/sbin目录下,在命令行输入:sbin/hadoop-deamon.sh ,可以看到关于该命令的提示:
  Usage:hadoop-daemon.sh [--config ] [--hosts hostlistfile] [--scriptscript] (start|stop)
  启动NameNode:
  $sbin/hadoop-daemon.sh start namenode
  验证:jps查看是否有NameNode进程
Step03:启动DataNode
  $sbin/hadoop-daemon.sh start datanode
  验证:jps查看是否有DataNode
  输入HDFS的Web监控地址: http://hadoop-yarn.dragon.org:50070
Step04:启动SecondaryNameNode
  $ sbin/hadoop-daemon.shstart secondarynamenode
  验证:jps查看是否有SecondaryNameNode
  输入SecondaryNameNode的管理地址: http://hadoop-yarn.dragon.org:50090
6.2日志分析
  (1) 启动日志文件目录为: $HADOOP_HOME/logs
  (2) 日志文件的格式 :【log】和【out】
  .log:通过log4j记录的,记录大部分应用程序的日志信息
  .out:记录标准输出和标准错误日志,少量记录
  (1)日志文件的命名规则
  【框架名称-用户名-进程名-主机名-日志格式后缀】
6.3HDFS的Shell操作
(1)hdfs命令使用说明
  在$HADOOP_HOME/bin目录下有个hdfs脚本,查看该命令的使用方法:
  $ bin/hdfs
  执行上面的命令以后,就会列出关于hdfs命令的使用方法:
  Usage:hdfs [--config confdir] COMMAND
  where COMMAND is one of:
  dfs                   run a filesystem command on the file systemssupported in Hadoop.
  namenode-format   format the DFS filesystem
  secondarynamenode    run the DFS secondary namenode
  namenode            run the DFS namenode
  journalnode          run the DFS journalnode
  zkfc               run the ZK Failover Controller daemon
  datanode             run a DFS datanode
  dfsadmin             run a DFS admin client
  haadmin            run a DFS HA admin client
  fsck               run a DFS filesystem checking utility
  balancer             run a cluster balancing utility
  jmxget             get JMX exported values from NameNode orDataNode.
  oiv                apply the offline fsimage viewer to anfsimage
  oev                apply the offline edits viewer to an editsfile
  fetchdt            fetch a delegation token from theNameNode
  getconf            get config values from configuration
  groups             get the groups which users belong to
  snapshotDiff         diff two snapshots of a directory or diffthe
     current directory contents with a snapshot
  lsSnapshottableDir   list all snapshottable dirs owned by thecurrent user
                                Use -help to seeoptions
  portmap            run a portmap service
  nfs3               run an NFS version 3 gateway
  Mostcommands print help when invoked w/o parameters.
(2)hdfsdfs命令使用说明
  从上面可以看到,hdfs命令下面有很多命令,下面我们了解分布式文件系统相关的命令:
  $ bin/hdfs dfs
  Usage:hadoop fs
  [-appendToFile ... ]
  [-cat[-ignoreCrc]...]
  [-checksum ...]
  [-chgrp[-R] GROUP PATH...]
  [-chmod[-R]PATH...]
  [-chown[-R] [:] PATH...]
  [-copyFromLocal[-f] [-p]... ]
  [-copyToLocal[-p] [-ignoreCrc] [-crc]... ]
  [-count [-q]...]
  [-cp[-f] [-p]... ]
  [-createSnapshot []]
  [-deleteSnapshot ]
  [-df[-h] [ ...]]
  [-du[-s] [-h]...]
  [-expunge]
  [-get[-p] [-ignoreCrc] [-crc]... ]
  [-getmerge [-nl] ]
  [-help]
  [-ls[-d] [-h] [-R] [ ...]]
  [-mkdir[-p]...]
  [-moveFromLocal ... ]
  [-moveToLocal ]
  [-mv ... ]
  [-put[-f] [-p]... ]
  [-renameSnapshot]
  [-rm[-f] [-r|-R] [-skipTrash]...]
  [-rmdir[--ignore-fail-on-non-empty]...]
  [-setrep[-R] [-w]   ...]
  [-stat...]
  [-tail[-f] ]
  [-test- ]
  [-text[-ignoreCrc]...]
  [-touchz ...]
  [-usage]
  Genericoptions supported are
  -conf   specify anapplication configuration file
  -D            usevalue for given property
  -fs      specifya namenode
  -jt    specifya job tracker
  -files   specify comma separated files to be copied to the map reduce cluster

  -libjars   specify comma separated jar files to include in the>  -archives   specify comma separated archives to be unarchived on the computemachines.
  Thegeneral command line syntax is
  bin/hadoopcommand
(3)hdfsdfs命令使用示例:

页: [1]
查看完整版本: 云帆大数据学院_hdfs的Shell操作与管理