设为首页 收藏本站
查看: 722|回复: 0

[经验分享] hadoop 初始配置

[复制链接]

尚未签到

发表于 2016-12-3 10:58:51 | 显示全部楼层 |阅读模式
  配置NFS
  配置 NFS (root用户 )
  (1) master上检查是否已经安装了 nfs
  [iyunv@hadoop01~]# rpm -qa|grep nfs
  nfs -utils-1.0.6-46
  system-config-nfs-1.2.8-1
  [iyunv@hadoop01~]# rpm -qa|grep portmap
  portmap-4.0-63
  若没有安装,可下载 rpm包,通过 rpm –ivh ***.rpm来安装
  (2)共享 master上的/home目录
  [iyunv@hadoop01~]# vi /etc/exports //*表示对任何网段都可连接
  /home*(rw,no_root_squash, s ync) //async是异步的,速度比较慢
  (3) master上启动 nfs s erver
  [iyunv@hadoop01~]# service portmap
  用法:/etc/init.d/portmap{start|stop|status|restart|reload|condrestart}
  [iyunv@hadoop01~]# service portmap start
  
  [iyunv@hadoop01~]# service nfs
  用法:nfs{start|stop|status|restart|reload|condrestart}
  [iyunv@hadoop01~]# service nfs start
  或者 [iyunv@hadoop01 ~]#/etc/init.d/nfs start
  
  [iyunv@hadoop01~]# service nfslock start
  (4) master上设置开机自动启动 nfs
  # chkconfig--level 2345 nfs on
  //可以把 chkconfig理解为开关,不过这个开关主要是用来设置系统启动时,各服务在0-6运行级别下的开启状态的。
  (5) slave端以 root用户在 hadoop02~hadoop08上设置开机自动挂载/home
  编辑 /etc/fstab
  hadoop01:/home/homenfs defaults 00
  或者在/etc/rc.d/rc.local中添加
  命令行模式:# mount -t nfshadoop01:/home /home
  -------------------------------------------------------------
  (6) 排错
  如果出现mount: mountto NFS server 'node1' failed: System Error: No route to host.则可能是防火墙惹的祸。
     通过setup把防火墙关掉,应该就可以了。
  SSH login without password
  for root user

  • [iyunv@A ~]vi /etc/hosts
  #[IP address] [hostname]
  192.168.1.X A
  192.168.1.Y B

  • generateauthentication keys anddistribute
  [iyunv@A ~]# ssh-keygen -t rsa
  [iyunv@A ~]# cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
  [iyunv@A ~]# scp ~/.ssh/* root@B:~/.ssh/

  • check
  [iyunv@A ~]# ssh B
  [iyunv@A ~]# ssh A
  for non-root users

  • just like what has to do for root user
  Hadoop集群安装(1)
  1. 机器配置
  (1) 机器规划
  master(NameNode, JobTracker)192.168.100.123  node14
  slave1(DataNode, TaskTracker)192.168.100.124  node15
  slave2(DataNode, TaskTracker)192.168.100.125 node16
  (2) 添加hadoop用户
  在三台机器上分别 groupadd hadoop useradd -g hadoophadoop添加hadoop用户
  (3) NFS设置
  通过root用户在master上配置NFSserver,并共享/home目录;
  slaves上挂在master上的/home到本地/home
  (4) ssh无密码(node14上对hadoop)
[plain]viewplaincopy
1. ssh-keygen-trsa
2. cp~/.ssh/id_rsa.pub~/.ssh/authorized_keys

  (5) 目录结构
  ~/soft
  ~/program
  ~/study
  2. 安装JDK (master上安装,hadoop用户)
  (1) 解压
  (2) 配置环境变量
[plain]viewplaincopy
1. [hadoop@node14~]$vi.bashrc
2. exportJAVA_HOME=/home/hadoop/program/jdk1.6.0_22
3. exportPATH=$JAVA_HOME/bin:$PATH
4. exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$CLASSPATH
5. [hadoop@node14~]$source.bashrc
6. [hadoop@node14~]$whichjava
7. ~/program/jdk1.6.0_22/bin/java

  3. 安装Hadoop0.21(master上安装,hadoop用户)
  (1) ~/program下面解压
  [hadoop@node14 ~]$ cp soft/hadoop-0.21.0.tar.gz program/
  [hadoop@node14 program]$ tar -zxvf hadoop-0.21.0.tar.gz
  (2)配置环境变量
  [hadoop@node14 ~]$ vi .bashrc
  export HADOOP_HOME=/home/hadoop/program/hadoop-0.21.0
  export HADOOP_LOG_DIR=$HADOOP_HOME/logs
  [hadoop@node14 ~]$ source .bashrc
  (3) 配置环境
  [hadoop@node14 hadoop-0.21.0]$ vi conf/hadoop-env.sh
  export JAVA_HOME=/home/hadoop/program/jdk1.6.0_22
  export HADOOP_LOG_DIR=${HADOOP_HOME}/logs
  (4)修改masterslave文件
  [hadoop@node14 hadoop-0.21.0]$ cat conf/masters
  node14
  [hadoop@node14 hadoop-0.21.0]$ cat conf/slaves
  node15
  node16
  配置conf/core-site.xml
  1.配置NameNode
[html]viewplaincopy
1. [hadoop@node14conf]$catcore-site.xml
2. <configuration>
3. <property>
4. <name>fs.default.name</name>
5. <value>hdfs://node14:9000</value>
6. </property>
7. </configuration>

  配置conf/hdfs-site.xml
  1. 配置NameNodeDataNode的目录()
  说明:配置dfs.name.dir dfs.data.dir
[html]viewplaincopy
1. <property>
2. <name>dfs.namenode.name.dir</name>
3. <value>file://${hadoop.tmp.dir}/dfs/name</value>
4. <description>DetermineswhereonthelocalfilesystemtheDFSnamenode
5. shouldstorethenametable(fsimage).Ifthisisacomma-delimitedlist
6. ofdirectoriesthenthenametableisreplicatedinallofthe
7. directories,forredundancy.</description>
8. </property>
9.
10.
11. <property>
12. <name>dfs.datanode.data.dir</name>
13. <value>file://${hadoop.tmp.dir}/dfs/data</value>
14. <description>DetermineswhereonthelocalfilesystemanDFSdatanode
15. shouldstoreitsblocks.Ifthisisacomma-delimited
16. listofdirectories,thendatawillbestoredinallnamed
17. directories,typicallyondifferentdevices.
18. Directoriesthatdonotexistareignored.
19. </description>
20. </property>

  
  2. 配置副本度
[plain]viewplaincopy
1. <property>
2. <name>dfs.replication</name>
3. <value>2</value>
4. </property>

  配置JobTracker_conf/mapred-site.xml
  conf/mapred-site.xml
  总结:主要配置JobTrackeraddressschedulerqueue等。
  1. 配置JobTracker (必须设置)
[html]viewplaincopy
1. <configuration>
2. <property>
3. <name>mapreduce.jobtracker.address</name>
4. <value>node14:9001</value>
5. <description>jobtracker'saddress</description>
6. </property>
7. </configuration>

  2. 还有其他可配置项
  具体见hadoop-0.21.0/mapred/src/java/mapred-default.xml中,如
  (1)设置作业调度器
[html]viewplaincopy
1. <property>
2. <name>mapreduce.jobtracker.taskscheduler</name>
3. <value>org.apache.hadoop.mapred.JobQueueTaskScheduler</value>
4. <description>Theclassresponsibleforschedulingthetasks.</description>
5. </property>

  (2) 作业队列
[html]viewplaincopy
1. <property>
2. <name>mapreduce.job.queuename</name>
3. <value>Queue-A:Queue-B:Queue-C</value>
4. </property>

  mapreduce.jobtracker.system.dir
  mapreduce.cluster.local.dir

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309071-1-1.html 上篇帖子: hadoop 比较好的博客 下篇帖子: 贡献hadoop patch
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表