设为首页 收藏本站
查看: 621|回复: 0

[经验分享] hadoop的常用命令指南

[复制链接]
发表于 2016-12-4 08:51:55 | 显示全部楼层 |阅读模式
目录[-]

  • 1.start-all.sh开启线程
  • 2. -ls/-lsr 查看目录下的文件信息
  • 3. –touchz 创建文件
  • 4. –mkdir 创建文件夹
  • 5. -text/-cat查看文件内容
  • 6. -mv 移动/重命名
  • 7. -cp 复制
  • 8. -rm/-rmr 删除文件
  • 9. -put 上传文件
  • 10.-copyFromLocal 从本地复制
  • 11 -moveFromLocal从本地移动
  • 12. -getmerge 合并下载到本地
  • 13. -setrep/-setrep -R/-setrep -R -w 设置副本数量
  • 14. -du统计目录下个文件大小
  • 15.-count统计文件(夹)数量
  • 16. –chmod/-chmod -R 修改文件权限
  • 17. hadoop jar 导jar在命令行运行
  • 18、报告HDFS的基本统计信息
  • 19、安全模式
  • 20、将HDFS中的文件复制到本地系统中


1.start-all.sh开启线程
hadoop fs -ls hdfs://cloud4:9000/user (cloud4表示主机名 9000代表端口号 /就代表根目录 /user就是user文件夹)
hadoop fs -ls /userhdfs://cloud4:9000可省略)
2. -ls/-lsr 查看目录下的文件信息
  hadoop fs -ls /  查看根目录下文件与文件夹
  hadoop fs -lsr /    递归查看根目录下所有文件与文件夹
  hadoop fs -ls    默认查看hdfs下的/user/<当前用户>  例如:/user/root  (很方便的)
3. –touchz 创建文件
可以创建一个文件
  hadoop fs -touchz /hello  (创建一个hello文件)
4. –mkdir 创建文件夹
linux中创建多级目录 mkdir –p   p表示parents
可以创建一个或者多个文件夹(hadoop则不需要-p)
  hadoop fs -mkdir /user  (创建一个user文件夹 )
5. -text/-cat查看文件内容
  hadoop fs -text /hello
  hadoop fs -cat /hello
 
6. -mv 移动/重命名
该命令选项表示移动 hdfs 的文件到指定的 hdfs 目录中。后面跟两个路径,第一个表示源文件,第二个表示目的目录
  hadoop fs -mv /hello /user(文件到文件夹:是移动)
hadoop fs -mv /hello /user/hello(文件到文件:是重命名)
7. -cp 复制
该命令选项表示复制 hdfs 指定的文件到指定的 hdfs 目录中。后面跟两个路径,第
一个是被复制的文件,第二个是目的地
  hadoop fs -cp /user/hello /user/root
8. -rm/-rmr 删除文件
-rm:删除文件/空白文件夹
该命令选项表示删除指定的文件或者空目录
  hadoop fs -rm /user/hello
-rmr:递归删除
该命令选项表示递归删除指定目录下的所有子目录和文件
 hadoop fs -rm /user
9. -put 上传文件
该命令选项表示把 linux 上的文件复制到 hdfs 
  hadoop fs -put hadoop-env.sh /user 
将当前linux目录下的hadoop-env.sh文件,上传到/user(hdfs服务器上的user目录下)
hadoop fs -put hadoop-env.sh  /你叫起的名字(hello—文件名)
例如:hadoop fs -put hadoop-env.sh /hello
10.-copyFromLocal 从本地复制
用法与-put一样
  hadoop fs -copyFromLocal hadoop-env.sh /user
11 -moveFromLocal从本地移动
该命令表示把文件从 linux 上移动到 hdfs 
hadoop fs -moveFromLocal /home/repine/hehe.txt /user
12. -getmerge 合并下载到本地
该命令选项的含义是把 hdfs 指定目录下的所有文件内容合并到本地 linux 的文件中
  hadoop fs -getmerge /user /home/repine/abc.txt     表示把user目录下所有文件内容复制到linux /home/repine/abc.txt
13. -setrep/-setrep -R/-setrep -R -w 设置副本数量
该命令选项是修改已保存文件的副本数量,后面跟副本数量,再跟文件路径
  hadoop fs -setrep 2 /user/hehe.txt   设置/user/hehe.txt副本数量为2
如果最后的路径表示文件夹,那么需要跟选项-R,表示对文件夹中的所有文件都修改副本
  hadoop fs -setrep -R 2 /user   设置/user下所有文件(不是文件夹)的副本数量为2
还有一个选项是-w,表示等待副本操作结束才退出命令
  hadoop fs -setrep -R -w 1 /user/hehe.txt
                                               DSC0000.jpg
14. -du统计目录下个文件大小
  hadoop fs -du /    查看根目录下的各个文件的大小
  hadoop fs -dus /   汇总统计目录下所有文件的总大小(也就是当前文件夹的大小)
15.-count统计文件(夹)数量
  hadoop fs -count /usr  递归统计当前文件下的所有信息:数字代表(文件夹总数量、文件总数量、文件总大小信息)
  hadoop fs -lsr /usr    验证信息
16. –chmod/-chmod -R 修改文件权限
该命令选项的使用类似于 linux  shell 中的 chmod 用法,作用是修改文件的权限
  hadoop fs - chmod 777 /user/hehe.txt  修改该文件的权限
如果加上选项-R,可以对文件夹中的所有文件修改权限
  hadoop fs – chmod -R 777 /user  修改该文件夹下所有文件的权限
17. hadoop jar jar在命令行运行
//打包运行程序必备宝典
job.setJarByClass(WordCountApp.class);
 
linux 
hadoop jar    /linux下路径/XXX.jar     /hadoop执行jar的文件或者文件夹   /hadoop下存放目录
18、报告HDFS的基本统计信息
bin/hadoop dfsadmin -report
19、安全模式
bin/hadoop dfsadmin -safemode leave/enter/get/wait
 
20、将HDFS中的文件复制到本地系统中
bin/hadoop dfs -get in getin
HDFS中的in文件复制到本地系统并命名为getin
   
  转自:http://my.oschina.net/repine/blog/268278#OSC_h2_2

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309334-1-1.html 上篇帖子: Hadoop学习小结 下篇帖子: hadoop面试小结
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表