设为首页 收藏本站
查看: 935|回复: 0

[经验分享] ambari之hadoop的安装

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-7-22 10:44:01 | 显示全部楼层 |阅读模式
前期环境准备:
三台机器:192.168.1.25(1-3);251-ambari_master;252-ambari_slare1;253-ambari_slare2
机器配置,系统环境
使用虚拟机,系统rhel6.6 ; centos6.5
所有机器都需要执行一下设置(我已经设置好了,可以看一下):
1.打开最大文件数设置

[iyunv@ambari_slare2 ~]# ulimit -Hn
10000

[iyunv@ambari_slare2 ~]# ulimit -Sn
10000
补充:【
1. 修改/etc/security/limits.conf
通过 vi /etc/security/limits.conf修改其内容,在文件最后加入(数值也可以自己定义):
* soft  nofile = 32768
* hard  nofile = 65536
2. 修改/etc/profile
通过vi /etc/profile修改,在最后加入以下内容
ulimit -n 32768
然后重新登录即可生效了。
说明
其实只修改/etc/profile就可以生效了,但我还是建议把/etc/security/limits.conf也修改一下。
最后强调的是,你如果要使得修改对所有用户都生效,那么现在看来你只能重新编译Linux的内核才行。】

2. 修改hosts文件
[iyunv@ambari_slare2 ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.251 ambari_master
192.168.1.252 ambari_slare1
192.168.1.253 ambari_slare2
3. 设置selinux为disabled
[iyunv@ambari_slare2 ~]# getenforce
Disabled
4. 关闭防火墙
[iyunv@ambari_slare2 ~]# /etc/init.d/iptables status
iptables: Firewall is not running.
5. 开启ntpd
[iyunv@ambari_slare2 ~]# /etc/init.d/ntpd status
ntpd (pid  5858) is running...
6. 设置环境变量jdk
[iyunv@ambari_slare2 ~]# java -version
java version "1.7.0_79"
Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)
7. 配置ssh
[iyunv@ambari_slare2 ~]# cat .ssh/authorized_keys
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAnxCVyAwzM743vB6KB4EVLDZ0+ydsmEtuMHD0ATar8zWqPDuBvGc4un5Fv1mIBCgOt3+GyWbDznACNlDzLkwRkxU8XhhTsRFHaWb9t9rH0N9dDEWbLqE1D70MY+oN7ZMVwDSooUESRx05Eg8szoDPY+JXHF8AWgigNUhesJkMVpshI+GNV/x3a9F2aRvTyk5QibMVcmNGYXdrIxzhX8VDWAWI1soy3vAorteHORzOdzWuPZm78MUYwTA1p7z1h7q4gfG3GIEThkCss72LE1m7mIwgTNeAlxWYXckxzhQC13pS1D2dWKLucQHhVqfU0QW5mPE0f/++oyx9trFr72Aaaw== root@ambari_slare2
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAki9g5Sy4WWXkDcz78bU5oq5flWk5JL9UeL62XC0qoapD63SjFep9aRWBSabxWHaENo7G/6ES8CI2kjTIwB1syMC8ropDAx+WbkSoLPwrwqapnK49OtQ0hnTs6QMAHey3ilzWfZxKmnk0yKavFqhbfPaBYps8ewXeGdPFsRaPIJzbInwXMw4/sB1hguA0rR55fs3vJR6Px1RGSt6fq/pxX7Wmug+3JShJras8ucs3F+C491f49dNwhQBdgjHCEFabhXeSZG3ngMBX8sOMhuN19Xg/oIaa2IKX4ckIu/LbwNw5lIc+6l9kVn0Y0BLeHux6gLaQM0EfwMbsvdOK/tGZrQ== root@ambari_slare1
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAtZacjGL5llcaJLQZtCKDzqg/CQPjKFRJDmo+bIFBfrlD5jAR78fXnlhxdqg8dvSVnSyU7q73bYrV7U+ym4lqq3J7JMRGuNSBBndnwu90I175w8V4IntPS9tv/oLo9zzsPrnKYmsxXguUahEOJJErImIQ4LPJ3oBUDISxfIjEckjlvkUNThUmOMxSHVwyvpwFBzDWBcYsYJtZJbZYOdNSQyOb3AFOgwkgR+sPj+C+Kdp6yP/Ua3r/yZGGgUR+NFLM8x7Oz236cmJVy0xVFrE3BxYIJDp+VBeWb8bTdI40XCPmRvb0wpLRFy9nj7i1EMzZ7xTvCTZo48oLBsxH/obd+w== root@ambari_master
8. yum -y groupinstall "Development tools"
9. yum -y install mysql*
10. yum -y install ruby* redhat-lsb* snappy*
制作ambari和hadoop本地源:
1. 创建本地源目录
选取一台服务器,安装http服务,安装完后会自动创建 /var/www/html 目录(我选的是251 ambari_master)
启动httpd 命令: service httpd start  || /etc/init.d/httpd start
                 chkconfig httpd on
创建两个目录:
mkdir  /var/www/html/ambari
mkdir  /var/www/html/hdp
2.安装createrepo(在这里需要强制安装,添加:--force --nodeps)
2.1 [iyunv@ambari_master Packages]# rpm -ivh createrepo-0.9.9-22.el6.noarch.rpm --force --nodeps
warning: createrepo-0.9.9-22.el6.noarch.rpm: Header V3 RSA/SHA256 Signature, key ID fd431d51: NOKEY
Preparing...                ########################################### [100%]
   1:createrepo             ########################################### [100%]
2.2 [iyunv@ambari_master hdp]# yum install python*
(输出结果太多,这里就不粘贴了,自己试试)
3.ambari本地源创建
解压HDP-UTILS-1.1.0.20-centos6.tar.gz 到目录 /var/www/html/ambari
命令:tar  zxvf  HDP-UTILS-1.1.0.20-centos6.tar.tar  -C  /var/www/html/ambari
把Updates-ambari-2.2.1.0目录拷贝到目录 /var/www/html/ambary
cd /var/www/html/ambari/HDP-UTILS-1.1.0.20/repos/centos6
mkdir Updates-ambari-2.2.1.0
cp -r /var/www/html/ambari/Updates-ambari-2.2.1.0/ambari /var/www/html/ambari/HDP-UTILS-1.1.0.20/repos/centos6/Updates-ambari-2.2.1.0
进入/var/www/html/ambari 目录,执行命令:createrepo  ./
ambari本地源制作完成
结果:
[iyunv@ambari_master ambari]# createrepo ./
Spawning worker 0 with 50 pkgs
Workers Finished
Gathering worker results
Saving Primary metadata
Saving file lists metadata
Saving other metadata
Generating sqlite DBs
Sqlite DBs complete
[iyunv@ambari_master ambari]# ls
HDP-UTILS-1.1.0.20  repodata  Updates-ambari-2.2.1.0

4. hadoop本地源创建
把HDP-2.4.0目录拷贝到目录 /var/www/html/hdp
进入/var/www/html/hdp 目录,执行命令:createrepo  ./   
hadoop本地源制作完成
结果:
[iyunv@ambari_master ambari]# cd ../hdp/
[iyunv@ambari_master hdp]# createrepo ./
Spawning worker 0 with 179 pkgs
Workers Finished
Gathering worker results
Saving Primary metadata
Saving file lists metadata
Saving other metadata
Generating sqlite DBs
Sqlite DBs complete
[iyunv@ambari_master hdp]# ls
HDP-2.4.0  repodata

5. 系统光盘本地源创建

[iyunv@ambari_master ambari]# mount -o loop /mnt/iso/rhel-server-6.6-x86_64-dvd.iso /mnt/cdrom/
[iyunv@ambari_master ambari]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/VolGroup-lv_root
                       50G   11G   36G  24% /
tmpfs                 2.0G   72K  2.0G   1% /dev/shm
/dev/sda1             477M   33M  419M   8% /boot
/dev/mapper/VolGroup-lv_home
                       45G   52M   43G   1% /home
/mnt/iso/rhel-server-6.6-x86_64-dvd.iso
                      3.6G  3.6G     0 100% /mnt/cdrom

[iyunv@ambari_master ambari]#ls /mnt/iso/
rhel-server-6.6-x86_64-dvd.iso
[iyunv@ambari_master ambari]# ls /mnt/cdrom/
EFI      EULA_ja           isolinux       ResilientStorage
EULA     EULA_ko           LoadBalancer   RPM-GPG-KEY-redhat-beta
EULA_de  EULA_pt           media.repo     RPM-GPG-KEY-redhat-release
EULA_en  EULA_zh           Packages       ScalableFileSystem
EULA_es  GPL               README         Server
EULA_fr  HighAvailability  release-notes  TRANS.TBL
EULA_it  images            repodata
[iyunv@ambari_master ambari]# cat /etc/yum.repos.d/myself.repo
[daxiong]
name=daxiong
baseurl=file:///mnt/cdrom
enabled=1
gpgcheck=1
gpgkey=file:///mnt/cdrom/RPM-GPG-KEY-redhat-release
检验:
[iyunv@ambari_master yum.repos.d]# yum repolist
Loaded plugins: product-id, refresh-packagekit, security, subscription-manager
This system is not registered to Red Hat Subscription Management. You can use subscription-manager to register.
HDP-2.4                                                                                                                                                                  | 2.9 kB     00:00     
HDP-2.4/primary_db                                                                                                                                                       |  61 kB     00:00     
HDP-UTILS-1.1.0.20                                                                                                                                                       | 2.9 kB     00:00     
HDP-UTILS-1.1.0.20/primary_db                                                                                                                                            |  31 kB     00:00     
ambari-2.2.1                                                                                                                                                             | 2.9 kB     00:00     
ambari-2.2.1/primary_db                                                                                                                                                  |  31 kB     00:00     
daxiong                                                                                                                                                                  | 4.1 kB     00:00 ...
daxiong/primary_db                                                                                                                                                       | 3.1 MB     00:00 ...
repo id                                                                 repo name                                                                                                         status
HDP-2.4                                                                 HDP-2.4                                                                                                             179
HDP-UTILS-1.1.0.20                                                      Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.20                                                         50
ambari-2.2.1                                                            Ambari 2.2.1                                                                                                         50
daxiong                                                                 daxiong                                                                                                           3,785
repolist: 4,064
6. mysql 的配置
CREATE USER 'ambari'@'%' IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%';
CREATE USER 'ambari'@'localhost' IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'localhost';
CREATE USER 'ambari'@'ambari_master' IDENTIFIED BY 'ambari_master';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'ambari_master';
FLUSH PRIVILEGES;
CREATE DATABASE hive;
FLUSH PRIVILEGES;
CREATE DATABASE ambari;
FLUSH PRIVILEGES;
CREATE USER 'hive'@'localhost' IDENTIFIED BY 'hive';
GRANT ALL PRIVILEGES ON *.* TO 'hive'@'localhost';
CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';
GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%';
CREATE USER 'hive'@'ambari_slave2'IDENTIFIED BY 'hive';
GRANT ALL PRIVILEGES ON *.* TO 'hive'@'ambari_slave2';
FLUSH PRIVILEGES;
CREATE USER 'rangeradmin'@'%' IDENTIFIED BY 'rangeradmin';
GRANT ALL PRIVILEGES ON *.* TO 'rangeradmin'@'%'  with grant option;
CREATE USER 'rangeradmin'@'localhost' IDENTIFIED BY 'rangeradmin';
GRANT ALL PRIVILEGES ON *.* TO 'rangeradmin'@'localhost'  with grant option;
CREATE USER 'rangeradmin'@'ambari_master' IDENTIFIED BY 'rangeradmin';
GRANT ALL PRIVILEGES ON *.* TO 'rangeradmin'@'ambari_master'  with grant option;
FLUSH PRIVILEGES;

CREATE USER 'root'@'%' IDENTIFIED BY 'root';
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%';
FLUSH PRIVILEGES;
7.查看yum源(检查,可以省略这步,我是为了后期安装简单所以放在这)
[iyunv@slare2 ~]# ls /etc/yum.repos.d/
ambari.repo  HDP.repo  HDP-UTILS.repo  mnt.repo  redhat.repo  rhel-source.repo
[iyunv@slare2 ~]# cat /etc/yum.repos.d/ambari.repo
[ambari-2.2.1.]
name=Ambari 2.2.1
baseurl=http://192.168.1.253/ambari/
gpgcheck=0
enabled=1
[HDP-UTILS-1.1.0.20]
name=Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.20
baseurl=http://192.168.1.253/ambari/
gpgcheck=0
enabled=1
[iyunv@slare2 ~]# cat /etc/yum.repos.d/HDP-UTILS.repo
[HDP-UTILS-1.1.0.20]
name=HDP-UTILS-1.1.0.20
baseurl=http://192.168.1.253/ambari
path=/
enabled=1
gpgcheck=0
[iyunv@slare2 ~]# cat /etc/yum.repos.d/HDP.repo
[HDP-2.4]
name=HDP-2.4
baseurl=http://192.168.1.253/hdp
path=/
enabled=1
gpgcheck=0[iyunv@slare2 ~]#
8. 配置安装ambari
主节点:
yum -y install ambari-server(这步会自动安装postgresql数据库,我使用的是mysql,所以停掉它)
service postgresql stop
chkconfig postgresql off
scp /var/lib/ambari-server/resources/Ambari-DDL-MySQL-CREATE.sql root@ambari_slave2:/root
mysql数据库节点:
use ambari;
source /root/Ambari-DDL-MySQL-CREATE.sql;
FLUSH PRIVILEGES;
ambari-server setup
ambari-server start
JAVA_HOME=/usr/local/jdk1.7.0_79
cd /usr/share/java
rm -rf  mysql-connector-java.jar
ln -s mysql-connector-java-5.1.17.jar  mysql-connector-java.jar
ambari-server setup --jdbc-db=mysql --jdbc-driver=/usr/share/java/mysql-connector-java.jar
cp /usr/share/java/mysql-connector-java-5.1.17.jar /var/lib/ambari-server/resources/mysql-jdbc-driver.jar
vim /var/lib/ambari-server/resources/stacks/HDP/2.4/repos/repoinfo.xml
  <os family="redhat6">
    <repo>
      <baseurl>http://192.168.1.253/hdp</baseurl>
      <repoid>HDP-2.4</repoid>
      <reponame>HDP</reponame>
    </repo>
    <repo>
      <baseurl>http://192.168.1.253/ambari</baseurl>
      <repoid>HDP-UTILS-1.1.0.20</repoid>
      <reponame>HDP-UTILS</reponame>
    </repo>
  </os>
然后就可以到web界面安装hadoop集群以及所需的组件了,在web安装过程中会出现问题,我在这就不一一细说了,其实终端或者log中都有提示,或者就有答案,不会的一些问题可以直接在网上找找,一般都有。
  • echo never > /sys/kernel/mm/redhat_transparent_hugepage/defrag
    echo never > /sys/kernel/mm/redhat_transparent_hugepage/enabled
    echo never > /sys/kernel/mm/transparent_hugepage/enabled
    echo never > /sys/kernel/mm/transparent_hugepage/defrag
  • 在web界面会到主节点的私钥,来识别子节点的机器:
    gpgcheck=0[iyunv@ambari_master ~]# cat .ssh/id_rsa




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-247791-1-1.html 上篇帖子: hadoop的简单安装部署过程 下篇帖子: hadoop平台报错,java.net.ConnectException: 连接超时
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表