8516830 发表于 2018-10-29 06:15:41

CentOS下hadoop完全分布式的基础配置

  配置完全分布式
  1、修改静态IP和主机名称
  ①规划IP和主机名映射
  ②涉及文件
  etc/hostname
  etc/hosts
  etc/resolve.conf
  etc/sysconfig/network-script/ifcfg-ens3
  2、配置ssh
  ①删除各节点的~/.ssh目录
  ②在各节点创建~/.ssh目录,同时指定权限
  mkdir ~/.ssh -m 700
  ③在主节点生成公私密钥对
  //生成成公私密钥对
  ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

  cp>  //分发公钥
  scp ~/.ssh/authorized_keys centos@s202:/home/centos/.ssh/
  ssh-copy-id centos@s202
  ④分发密钥
  scp ~/.ssh/authorized_keys centos@s212:/~/.ssh/
  ⑤测试ssh是否成功
  ssh s212
  3、修改配置文件并分发到个节点
  ①core-site.xml
  
  
  
  
  fs.defaultFS
  hdfs://s201
  
  
  ②hdfs-site.xml
  
  
  
  
  dfs.replication
  3
  
  
  dfs.namenode.name.dir
  /home/centos/hadoop/hdfs/name
  
  
  dfs.datanode.data.dir
  /home/centos/hadoop/hdfs/data
  
  
  dfs.namenode.checkpoint.dir
  /home/centos/hadoop/hdfs/namesecondary
  
  
  ③mapred-site.xml
  
  
  
  
  mapreduce.framework.name
  yarn
  
  
  ④yarn-site.xml
  
  
  
  
  yarn.resourcemanager.hostname
  s201
  
  
  yarn.nodemanager.local-dirs
  /home/centos/hadoop/nm-local-dir
  
  
  yarn.nodemanager.aux-services
  mapreduce_shuffle
  
  
  ⑤分发配置文件
  rsync etc centos@s212:/soft/hadoop/
  4、NN和DN指定
  slaves文件配置
  5、克隆主机并修改各节点主机IP和名称
  方法同步骤1
  6、格式化文件系统
  hdfs namenode -format
  7、启动集群,观察进程
  1、启动hdfs
  start-dfs.sh
  //涉及进程
  namenode    50070    元数据
  datanode    50075    数据
  secondarynamenode    50090
  2、启动yarn
  start-yarn.sh
  //涉及进程
  resourcemanager
  nodemanager
  涉及脚本:
  1、xcall.sh
  #!/bin/bash
  for host in `cat /soft/hadoop/etc/hadoop/slaves` ; do
  echo ========== $host ===========
  ssh $host $@ ;
  done
  2、xsync.sh
  #!/bin/bash
  param=$1
  dir=`dirname $param`
  fullpath=`pwd -P`
  user=`whoami`
  filename=`basename $param`
  cd $dir
  for host in `cat /soft/hadoop/etc/hadoop/slaves` ; do
  echo =========== $host ============
  rsync -lr $filename $user@$host:$fullpath ;
  done

页: [1]
查看完整版本: CentOS下hadoop完全分布式的基础配置