珀耳塞福建 发表于 2018-10-28 15:35:42

Hadoop云集格式化两次以后,该怎么修复

  Hadoop云集格式化两次以后,可能就需要重做系统,但是也有恢复的方法:
  1.cd/usr/local/hadoop-0.20.2-cdh3u5/
  2.Cd/tmp/ (默认在tmp下),只要hadoop集群装完,ls后就有hadoop-hadoop这么一个目录。
  3.Cdhadoop-hadoop/
  4.Ls(这时候就会有dfs的目录,这里表示的所有dfs文件存在的位置)
  5.Cd/dfs
  6.Ls(这时候就会有name,name里面就是主节点存在的位置)
  7.Cdname
  8.Ls(有current,是所有文件权存在的位置)
  9.Cdcurrent/
  10.Ls
  11.Viversion(然后看看自己ID)
  12.再克隆一个会话,ssh h102(一个从节点)
  13.Cd/tmp/
  14.Cdhadoop-hadoop/
  15.Cddfs/(这时候就只有data了,没有name,因为从节点没有name
  16.Cddata/
  17.Cdcurrent/
  18.Viversion,这时候看看自己ID,是不是跟主节点的一样,要是不一样修过一样就可以,这样就可以恢复了。

页: [1]
查看完整版本: Hadoop云集格式化两次以后,该怎么修复