sunren 发表于 2018-10-28 11:53:30

Hadoop用户启动hdf几个进程

  详细的修改步骤:
  启动的三个进程:
  namenode: hadoop-01    bin/hdfs getconf -namenodes
  datanode: localhost    datanodes (using default slaves file)   etc/hadoop/slaves
  secondarynamenode: 0.0.0.0
  # cd/opt/software/hadoop
  # echo"hadoop-01" > ./etc/hadoop/slaves
  # cat./etc/hadoop/slaves
  hadoop-01
  # vi./etc/hadoop/hdfs-site.xml
  
  dfs.namenode.secondary.http-address
  hadoop-01:50090
  
  
  dfs.namenode.secondary.https-address
  hadoop-01:50091
  
重启
  #sbin/stop-dfs.sh
  #sbin/start-dfs.sh
  关于步骤做一个详细的解析:
  namenode : hadoop-01
  datnaode : localhost
  seondarynamenode : 0.0.0.0
  对于这三个进程我们要查看如何修改这些参数

[*]namenode 他读取的文件是 core-site.xml,所以我们要对这个文件进行修改
  
  
  fs.defaultFS
  hdfs://hadoop-01:9000
  
  
  namenode进程启动就改为了hadoopp-01
  $ cat/etc/hosts
  127.0.0.1   localhost localhost.localdomain localhost4localhost4.localdomain4
  ::1         localhost localhost.localdomain localhost6localhost6.localdomain6
  192.168.137.30 hadoop-01 (查看了我们的机器名已经配置了相关的ip地址信息了)
  需要查看hdfs启动这三个进程究竟是一个怎样的过程,它写的是一个shell脚本
  cat sbin/start-dfs.sh
  如下图:
  文件显示namenodes on 就等于 $ sbin/start-dfs.sh
  Starting namenodes on ,所以启动的是本地的机器名
  2.datenode调用的是 slaves file文件
  查找下slaves用的是什么,发现是localhost,我们要对其进行修改
  覆盖slaves文件,让它变成hadoop-01
  3.seondarynamenode查看shell信息
  我们通过命令查看相应的结果:
  打开官网查看官网给出的信息
  http://hadoop.apache.org/docs/r2.8.3/hadoop-project-dist/hadoop-common/SingleCluster.html
  把网站信息往下拉,可以看到下图,点击 hdfs-default.xml
  再上节课中我们的hdfs-deault.xml使用的是默认的配置
  然后 Ctrl + F 查找 secondary ,第一个就是我们所需要的信息。
  推荐下我自己创建的大数据学习交流Qun: 710219868 有大佬有资料, 进Qun聊邀请码填写 南风(必填 )有学习路线的分享公开课,听完之后就知道怎么学大数据了

页: [1]
查看完整版本: Hadoop用户启动hdf几个进程