hudeya 发表于 2018-10-28 15:00:29

Hadoop 12节点集群搭建配置清单

$ vim hdfs-site.xml  #【指定DataNode存储block的副本数量。默认值是3个,我们现在有4个DataNode,该值不大于4即可。】
  
  
  dfs.replication
  3
  
  #【使用federation时,HDFS集群别名。名字可以随便起,多个集群时相互不重复即可】
  
  dfs.nameservices
  myha
  
  #【指定该集群的namenode的机器】
  
  dfs.ha.namenodes.myha
  hadoop001,hadoop007
  
  #【指定hadoop100的RPC地址】
  
  dfs.namenode.rpc-address.myha.hadoop001
  hadoop001:9000
  
  #【指定hadoop100的http地址】
  
  dfs.namenode.http-address.cluster1.hadoop001
  hadoop001:50070
  
  #【指定hadoop101的RPC地址】
  
  dfs.namenode.rpc-address.myha.hadoop101
  hadoop101:9000
  
  #【指定hadoop101的http地址】
  
  dfs.namenode.http-address.myha.hadoop101
  hadoop101:50070
  
  #【指定该集群的两个NameNode共享edits文件目录时,使用的JournalNode集群信息】
  
  dfs.namenode.shared.edits.dir
  qjournal://hadoop002:8485;hadoop003:8485;hadoop008:8485/myha
  
  #【指定该集群是否启动自动故障恢复,即当NameNode出故障时,是否自动切换到另一台NameNode】
  
  dfs.ha.automatic-failover.enabled.myha
  true
  
  #【指定该集群出故障时,哪个实现类负责执行故障切换】
  
  dfs.client.failover.proxy.provider.myha
  org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
  
  #【一旦需要NameNode切换,使用ssh方式进行操作】
  
  dfs.ha.fencing.methods
  sshfence
  
  #【如果使用ssh进行故障切换,使用ssh通信时用的密钥存储的位置】
  
  dfs.ha.fencing.ssh.private-key-files
  file:///root/.ssh/id_rsa
  
  #【connect-timeout连接超时】
  
  dfs.ha.fencing.ssh.connect-timeout
  30000
  
  
  dfs.namenode.name.dir
  file:///home/hadoop/tmp/dfs/name
  
  #【设置】
  
  dfs.datanode.data.dir
  file:///home/hadoop/tmp/dfs/data
  
  

页: [1]
查看完整版本: Hadoop 12节点集群搭建配置清单