hongmeigui22027 发表于 2017-12-17 11:23:54

hadoop 3.0.0 alpha3 配置

  1. 官网下载

  wgethttp://mirror.bit.edu.cn/apache/hadoop/common /hadoop-3.0.0-alpha3/hadoop-3.0.0-alpha3.tar.gz
  ..注意下载二进制(省时间)
  1解压
  tar -zxvf hadoop-3.0.0-alpha3-src.tar.gz-C/opt/
  cd /opt/
  mv hadoop-3.0.0-alpha3/ hadoop3
  3. 环境变量

  vi /etc/profile
  #Hadoop 3.0
  export HADOOP_HOME=/usr/local/hadoop3
  export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  source /etc/profile
  4. 配置文件 hadoop3/etc/hadoop
  1) hadoop-env.sh

  注意: /usr/java/jdk1.8为jdk安装路径
  2)core-site.xml

  注意:hdfs://ha01:9000 中ha01是主机名
  3) hdfs-site.xml

  4) yarn-site.xml

  注意:ha01是主机名
  5) mapred-site.xml

  注意:如果不配置mapreduce.admin.user.env 和 yarn.app.mapreduce.am.env这两个参数mapreduce运行时有可能报错。
  6)workers

  这里跟以前的slaves配置文件类似,写上从节点的主机名
  5. 复制到其他节点
  scp -r hadoop-3.0.0-alpha1 root@ha02:/usr/local
  scp -r hadoop-3.0.0-alpha1 root@ha03:/usr/local
  6. 启动
  start-dfs.sh
  start-yarn.sh
  hdfs dfs -ls /

  7. 运行wordcount
  hdfs dfs -cat /logs/wordcount.log

  hadoop jar /usr/local/hadoop3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha1.jar wordcount /logs/wordcount.log /output/wordcount
  注意: /usr/local/hadoop3是解压路径,/logs/wordcount.log是输入文件路径,/output/wordcount运行结果路径
  查看运行结果: hdfs dfs -text /output/wordcount/part-r-00000

  8. Web界面
  http://ha01:9870/

  http://ha01:8088/

  
页: [1]
查看完整版本: hadoop 3.0.0 alpha3 配置