寂寞大萝卜 发表于 2018-10-28 15:34:47

hadoop【HDFS的基本命令】

  1.先进入到Hadoop用户下,然后:cd/usr/local/hadoop-0.20.2-cdh3u5/
  ls一下
  这时候会看见一个bin目录,bin目录下的,都是我们的命令。像JDK里面,bin目录里面不也是我们的命令嘛,像Java、javac。所以同样的,我们的Hadoop命令也在bin目录下。
  2.cdbin
  ls一下
  Start-all.sh(开启集群的意思),stop-all.sh(关闭所有集群),start-dfs.sh(开启HDFS 的所有进程),stop-dfs.sh(关闭HDFS的所有进程),hadoop-damon.sh(开启指定的一台机器),hadoop-damons.sh(开启多台机器)。
  3.要输入Hadoop的命令,必须要进入到Hadoop的bin目录下,格式为:hadoop fs ,
  为参数命令。
  4.Bin目录下执行脚本,必须是./    这样才能运行,别忘了,我的天啊,你肯定会忘的,并且是./hadoop    ./和Hadoop这个单词是连在一起,不是分开有空格的。
  5.好了,接下来就是实际命令了:
  ./hadoopfs-lshdfs://h103:9000/
  (fs表示文件系统,-ls后面接的就是你要查看的哪个目录下的内容,9000后面的斜杠/表示是我的目录)
  但是我又换一种写法写:./hadoopfs-ls/
  (这输出的结果是一样的,因为我的主机名就是h103,只要在我的集群上,ls空格后面的/,默认就是我的全路径hdfs://h103:9000/,所以这两种命令都是一样的)
  6.但是要是有人质问你,这样处理的结果tmp不是你本地的嘛,但这不是的,因为只有 :ls/
  这个命令,出来的才是本地的系统文件,比如srv,tmp啥的。
  7.创建目录:./hadoopfs-mkdir/user(创建的一个user 的目录)
  ./hadoofs-ls/                   (查看一下,是不是就有了)
  记住,这是Hadoop里,不是ls一下就可以了,是 ./hadoopfs-ls/    这样的
  8.这时user创建了,单我还想在user在创建一个,那命令是: ./hadoopfs-mkdir/user/hadoop (一级一级的创建)。
  注意了,我要是还像用上个命令 ./hadoop fs -ls /    查看能看到吗,当然不能,只能看到user目录,所以我就要用 ./hadoopfs-ls/user这个命令才能查看。
  为什么说刚才创建的Hadoop是目录呢,就是因为出来的是“drwxr-xr-x”,d就是目录的意思。
  9.上传文件:
  (1.先在本地创建个文件:via.txt
  (2.编写
  (3.Cat a.txt
  (4.先在要把它上传到集群user下的Hadoop下
  (5.上传命令:./hadoopfs-puta.txt/user/hadoop
  (6.这时再来查看一下:./hadoopfs-ls/user/hadoop/
  (7.这时候就上传了,但是我上传之后怎么看是个文件,那就看前面“-rw-r--r--”,-r就是文件的意思
  (8.接下来我要查看文件里的内容:./hadoopfs-cat/user/hadoop/a.txt
  (9.要是有人说,这a.txt是本地的,那把本地文件删除:rm-rfa.txt,本地文件是没有了,可是我仍然./hadoopfs-cat/user/hadoop/a.txt,仍然是能看见的,这也足以证明,我这个a.txt文件已经上传到我的集群里。
  10.本地的a.txt删除了吧,我想把集群里的文件下载到本地:./hadoopfs-get/user/hadoop/a.txt./,这时候cata.txt,就看见已经在本地里了。
  11.删除文件:./hadoopfs-rm/user/hadoop/a.txt
  回车后:DELETE hdfs:,,,,,,,,,这就是删除了。
  12.在home下创建一个目录:./hadoopfs-mkdir/user/hadoop/aaaa
  查看目录:./hadoopfs-ls/user/hadoop/
  13.删除目录:./hadoopfs-rmr/user/hadoop/aaaa
  14.删除我的Hadoop的目录:./hadoopfs-rmr/user/hadoop
  (-rm是删除文件的命令,-rmr是删除文件和目录的命令,通用的)!
  15.再给他创建回来:./hadoopfs-mkdir/user/hadoop/aaaa
  查看创建好了吗,./hadoopfs-ls/user/hadoop(所以可以一下创建2级)

页: [1]
查看完整版本: hadoop【HDFS的基本命令】