tubaobaoya3 发表于 2017-12-17 06:59:26

伪分布式安装Hadoop

  Hadoop简单介绍
  Hadoop:适合大数据分布式存储与计算的平台。
  Hadoop两大核心项目:
  1、HDFS:Hadoop分布式文件系统
  HDFS的架构:主从结构:
  主节点,只有一个:namenode
  1、接收用户操作请求
  2、维护文件系统的目录结构
  3、管理文件与block之间关系,block与datanode之间关系
  从节点,有很多个:datanodes
  1、存储文件
  2、文件被分成block存储在磁盘上
  3、为保证数据安全,文件会有多个副本
  2、MapReduce:并行计算框架
  MapReducede的架构:主从结构:
  主节点,只有一个:JobTracker
  1、接收客户端提交的计算任务
  2、把计算任务分给TaskTrackers执行
  3、监控TaskTracker的执行情况
  从节点,有很多个:TaskTrackers
  执行JobTracker分配的计算任务
  Hadoop的特点:
  1、扩容能力
  2、成本低
  3、高效率
  4、可靠性
  Hadoop部署方式:
  1、本地模式
  2、伪分布模式
  3、集群模式
  安装前准备软件:
  1、Vitual Box/VMWare
  2、centOS
  3、jdk-6u24-linux-xxx.bin
  4、hadoop-1.1.2.tar.gz
  1.hadoop的伪分布安装
  1.1 设置ip地址
  执行命令service network restart
  验证:ifconfig
  1.2 关闭防火墙
  执行命令service iptables stop
  验证:service iptables status
  1.3 关闭防火墙的自动运行
  执行命令chkconfig iptables off
  验证:chkconfig --list | grep iptables    //过滤出iptables
  1.4 设置主机名(按下面这两步进行)
  执行命令(1)hostname chaoren               //设置当前主机名为chaoren,但是重启系统后会失效
  (2)vi /etc/sysconfig/network    //编辑文件设置主机名,重启后不会失效
  1.5 ip与hostname绑定
  执行命令vi /etc/hosts                     //在文件下面增加一行 192.168.80.100 chaoren
  验证:ping chaoren
  1.6 设置ssh免密码登陆
  执行命令(1)ssh-keygen -t rsa               //一直回车即可
  (2)cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
  验证:ssh chaoren
  **************
  windows与Linux之间传输文件工具: WinSCP
  安装好,打开设置:主机名:192.168.56.100    用户名:root   密码:hadoop
  然后点击保存,勾选上保存密码,然后双击连接登录。
  将左侧Windows下的文件,拖动复制到右侧Linux下的目录/usr/local下。
  **************
  1.7 安装jdk
  执行命令(1)cd /usr/local
  (2)chmod u+x jdk-6u24-linux-i586.bin   //增加执行的权限
  (3)./jdk-6u24-linux-i586.bin       //解压
  (4)mv jdk-1.6.0_24jdk       //重命名
  (5)vi /etc/profile 增加内容如下:
  export JAVA_HOME=/usr/local/jdk
  export PATH=.:$JAVA_HOME/bin:$PATH
  (6)source /etc/profile      //刷新环境变量
  验证:java -version(改变后,OpenJdk就变成了oracle下的jdk了)
  1.8 安装hadoop
  执行命令(1)tar -zxvf hadoop-1.1.2.tar.gz      //解压
  (2)mv hadoop-1.1.2 hadoop//重命名
  (3)vi /etc/profile 修改环境变量,增加内容如下:
  export JAVA_HOME=/usr/local/jdk
  export HADOOP_HOME=/usr/local/hadoop
  export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
  (4)source /etc/profile
  (5)修改conf目录下的配置文件(直接在WinSCP中编辑修改保存)
  hadoop-env.sh:
  export JAVA_HOME=/usr/local/jdk/
  core-site.xml:
  <configuration>
  <property>
  <name>fs.default.name</name>
  <value>hdfs://主机名:9000</value>
  </property>
  <property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/hadoop/tmp</value>
  </property>
  </configuration>
  hdfs-site.xml:
  <configuration>
  <property>
  <name>dfs.replication</name>
  <value>1</value>
  </property>
  <property>
  <name>dfs.permissions</name>
  <value>false</value>
  </property>
  </configuration>
  mapred-site.xml:
  <configuration>
  <property>
  <name>mapred.job.tracker</name>
  <value>主机名:9001</value>
  </property>
  </configuration>
  (6)hadoop namenode -format//存储之前,要对文件系统进行格式化
  (7)start-all.sh
  验证:(1)执行命令jps 如果看到5个新的java进程,分别是NameNode、SecondaryNameNode、DataNode、JobTracker、TaskTracker

  (2)在浏览器查看,http://chaoren:50070    http://chaoren:50030


  1.9 启动时没有NameNode的可能原因:
  (1)没有格式化
  (2)环境变量设置错误
  (3)ip与hostname绑定失败
页: [1]
查看完整版本: 伪分布式安装Hadoop