3423423 发表于 2016-11-16 13:07:40

SaltStck 搭建Web集群运用示例 (一)

saltstack是一个非常强大的管理工具,使用saltstack会做到标准化的管理,下面就以一个简单的示例来更加具体的了解一下saltstack的功能特性。
使用saltstack来搭建一个简单的web集群,需要完成三个步骤:
1、系统初始化。初始化模块所有的机器环境一致。
2、功能模块:设置单独的目录haproxy nginxphp mysqlmemcached.
      功能模块做到尽可能的全,独立。
3、业务模块:根据业务类型划分,如web服务、论坛bbs等

Base基础环境的配置

salt环境配置
创建salt初始化环境:
修改master配置文件,

1
2
3
4
5
6
7
8
9
10
11
# vim /etc/salt/master
file_roots:            #配置基础环境和生产环境两个目录
base:
    - /srv/salt/base
prod:
    - /srv/salt/prod
   
pillar_roots:            #创建pillar环境
base:
    - /srv/pillar/base
    - /srv/pillar/prod




创建环境目录:

1
2
3
4
mkdir /srv/salt/base
mkdir /srv/salt/prod
mkdir /srv/pillar/base
mkdir /srv/pillar/prod





base基础环境初始化
基础环境的配置项:


[*]dns配置

[*]history记录时间

[*]记录命令操作

[*]内核参数优化

[*]安装yum仓库

[*]安装zabbix-agent


dns配置,创建dns.sls:

1
2
3
4
5
6
7
8
9
# cat dns.sls
/etc/resolv.conf:
file.managed:
    - source: salt://init/files/resolv.conf
    - user: root
    - group: root
    - mode: 644
   
# cp /etc/resolv.conffiles/




history记录时间,创建history.sls:

1
2
3
4
5
# cat history.sls
/etc/profile:
file.append:
    - text:
      - export HISTTIMEFORMAT="%F %T `whoami` "




记录命令操作,创建audit.sls :

1
2
3
4
5
# cat audit.sls
/etc/bashrc:
file.append:
    - text:
      - export PROMPT_COMMAND='{ msg=$(history 1 | { read x y; echo $y; });logger "":$(who am i):[`pwd`]"$msg"; }'




内核参数优化,创建sysctl.sls:

1
2
3
4
5
6
7
8
9
10
11
12
13
# catsysctl.sls
net.ipv4.ip_local_port_range:
sysctl.present:
    - value: 10000 65000   #指定本地可用的端口范围
fs.file-max:
sysctl.present:
    - value: 2000000       #最大文件
net.ipv4.ip_forward:
sysctl.present:
    - value: 1             #打开转发功能
vm.swappiness:
sysctl.present:
    - value: 0             #设置尽量不使用交换分区(权重值)




设置epel源,创建yum仓库,

1
2
3
4
5
# cat epel.sls
yum_repo_release:
pkg.installed:
    - sources:
      - epel-release: http://mirrors.aliyun.com/epel/epel-release-latest-7.noarch.rpm




创建zabbix-agent模板,这里的安装必须要有对应的yum源,在生产或环境需要有自己的yum源(或zabbix yum源),才能安装上对应的软件包:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
# cat zabbix-agent.sls
zabbix-agent:
pkg.installed:
    - name: zabbix-agent
file.managed:
    - name: /etc/zabbix/zabbix_agentd.conf
    - source: salt://init/files/zabbix_agentd.conf
    - template: jinja
    - backup: minion   #在文件模块中,对要修改的文件先备份,备份的文件默认在:/var/cache/salt/minion/file_backup/中
    - defaults:
      Zabbix_Server: {{ pillar['Zabbix_Server'] }} #被引用的名称A
      Hostname: {{ 'grains' }}#被应用的名称B
    - require:
      - pkg: zabbix-agent
service.running:
    - enable: True
    - watch:
      - pkg: zabbix-agent    #包和文件发生改变就重启服务
      - file: zabbix-agent
zabbix_agentd.conf.d:
file.directory:
    - name: /etc/zabbix/zabbix_agentd.d
    - watch_in:            #配置目录中发生任何变化都会重启zabbix-agent
      - service: zabbix-agent
    - require:
      - pkg: zabbix-agent
      - file: zabbix-agent




拷贝zabbix的配置文件到file目录,并将pillar参数添加到配置文件的对应位置:

1
2
3
4
5
cp /etc/zabbix/zabbix_agentd.conffiles/
vim files/zabbix_agentd.conf
#设置对应参数的引用
Hostname={{ Hostname }}   #设置agent为主动模式,引用B出的参数
Server= {{ Zabbix_Server }}   #此处引用的是A处的Zabbix_Server要使用上面的参数,还需要配置pillar才能使用。





配置pillar base初始化环境
创建一个pillar,

1
2
# cat agent.sls
Zabbix_Server: 172.16.10.60




创建pillar的top.sls,指定那些主机运行那些文件:


1
2
3
4
# cat top.sls
base:
'*':
    - zabbix.agent




验证pillar的base环境:

1
2
3
4
5
6
7
8
9
# salt '*' pillar.items
node2:
    ----------
    Zabbix_Server:
      172.16.10.60
node1:
    ----------
    Zabbix_Server:
      172.16.10.60




验证zabbix配置:

1
# salt '*' state.sls init.zabbix-agent




执行成功并自动修改了zabbix的配置文件则说明设置成功。
配置完上面的这些文件,基础环境就配置好了:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# tree
.
├── pillar
│   ├── base
│   │   ├── top.sls
│   │   └── zabbix
│   │       └── agent.sls
│   ├── prod
│   └── top.sls
└── salt
    ├── base
    │   └── init
    │       ├── audit.sls
    │       ├── dns.sls
    │       ├── epel.sls
    │       ├── files
    │       │   ├── resolv.conf
    │       │   └── zabbix_agentd.conf
    │       ├── history.sls
    │       ├── sysctl.sls
    │       └── zabbix-agent.sls
    ├── prod
    └── top.sls




可以编写一个基础的初始化配置文件,include所有基础的配置:


1
2
3
4
5
6
7
8
# cat init.sls
include:
- init.dns
- init.history
- init.audit
- init.sysctl
- init.epel
- init.zabbix-agent




然后执行这个主配置文件即可:

1
# salt '*' state.sls init.init




如果定义高级状态进行执行,就要定义使用top file:


1
2
3
4
# cat top.sls
base:
'*':
    - init.init




执行高级状态:

1
2
# salt '*' state.highstate test=True 验证结果
# salt '*' state.highstate确认执行




提示:

[*]在对文件进行操作时,为了避免误操作而破坏源文件,生产上所有涉及到文件的管理都要加上"- backup:minion"参数,自动备份文件,备份的文件默认在/var/cache/salt/minion/file_backup目录。

[*]在对文件执行salt 高级状态时,选对文件进行测试,加 test=True,确认无误后再执行。




Prod环境配置

Haproxy基础环境配置
首先对负载均衡进行一个初始化环境的配置,由于使用haproxy的源码安装方式,所以对prod的基础环境进行配置。
创建分类目录:

1
2
3
4
5
6
# mkdir haproxy
# mkdir keepalived
# mkdir nginx
# mkdir php
# mkdir memcached
# mkdir pkg




编写与编译相关的安装包文件参数:

1
# vim pkg/make.sls





1
2
3
4
5
6
7
8
9
10
11
12
13
# cat pkg/make.sls
make-pkg:
pkg.installed:
    - pkgs:
      - gcc
      - gcc-c++
      - glibc
      - make
      - autoconf
      - openssl
      - openssl-devel
      - pcre
      - pcre-devel




对于haproxy需要下载源码进行安装,对于安装的编译参数等可以在一台机器上安装验证。同时,需要将安装包和所需要启动脚本的文件放在files文件目录中。

1
# cp /software/haproxy-1.6.6/examples/haproxy.init ./




修改启动脚本haproxy.init中的默认BIN路径:


1
BIN=/usr/local/haproxy/sbin/$BASENAME




这样在/srv/salt/prod/haproxy/files目录下默认就会有两个文件:

1
2
# ls
haproxy-1.6.6.tar.gzhaproxy.init




编写sls文件,在文件编写haproxy的安装配置:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
# cat install.sls
include:
- pkg.make         # 执行pkg/make.sls文件
haproxy-install:
file.managed:    #salt状态模块,将source中的文件下载到ID(没有name参数则默认ID)指定的路径
    - name: /usr/local/src/haproxy-1.6.6.tar.gz
    - source: salt://haproxy/files/haproxy-1.6.6.tar.gz
    - mode: 644
    - user: root
    - group: root
cmd.run:      # cmd.run状态模块
    - name:cd /usr/local/src && tar xvf haproxy-1.6.6.tar.gz &&\
    cdhaproxy-1.6.6 && make TARGET=linux2628 PREFIX=/usr/local/haproxy-1.6.6 \
    && make install PREFIX=/usr/local/haproxy-1.6.6 && \
    ln -s /usr/local/haproxy-1.6.6 /usr/local/haproxy
    - unless: test -L /usr/local/haproxy #如果结果为True,则不执行name指向的命令
    - require:
      - pkg: make-pkg
      - file: haproxy-install
      
haproxy-init:
file.managed:
    - name: /etc/init.d/haproxy
    - source: salt://modules/haproxy/files/haproxy.init
    - mode: 755
    - user: root
    - group: root
    - require_in:
      - file: haproxy-install
cmd.run:
    - name: chkconfig --add haproxy
    - unless:chkconfig--list|grep haproxy#当结果为假就执行-添加自启动命令
   
net.ipv4.ip_nonlocal_bind:# 设置允许linux监听VIP(非本机IP)
sysctl.present:   
    - value: 1
/etc/haproxy:
file.directory:# 目录管理
    - user: root
    - group: root
    - mode: 755




这里有补充两个状态关系:
unless: 用于检查的命令,仅当unless选项指向的命令返回false时才执行name指向的命令
onlyif:检查的命令,近当onlyif选项指向的命令返回true时才执行name指向的命令

执行salt 命令,完成所有节点的安装,指定环境路径prod,默认为base环境:

1
# salt '*'state.sls haproxy.install saltenv=prod





业务引用haproxy
为了更加清晰的对服务模块和业务模块区分,可以在prod目录下分两个目录:cluster和modules ,分别对应业务和服务的各个模块,将所有prod下的目录服务包全部mv到modules目录中。

由于重建了目录,所以之前的/srv/salt/prod/modules/haproxy/install.sls 文件需要修改sourse file路径:

1
2
3
4
5
include:
   - modules.pkg.make
   
- source: salt://modules/haproxy/files/haproxy-1.6.6.tar.gz
- source: salt://modules/haproxy/files/haproxy.init




修改之后的目录:


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# tree
.
├── cluster
└── modules
    ├── haproxy
    │   ├── files
    │   │   ├── haproxy-1.6.6.tar.gz
    │   │   └── haproxy.init
    │   └── install.sls
    ├── keepalived
    ├── memcached
    ├── nginx
    ├── php
    └── pkg
      └── make.sls




执行salt 命令进行测试:

1
# salt '*'state.sls modules.haproxy.installsaltenv=prod




将集群的业务配置放在cluster/files目录中:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
# cat haproxy-outside.cfg
global
maxconn 100000
chroot /usr/local/haproxy
uid 99
gid 99
daemon
nbproc 1
pidfile /usr/local/haproxy/logs/haproxy.pid
log 127.0.0.1 local3 info
defaults
option http-keep-alive
maxconn 100000
mode http
timeout connect 5000ms
timeout client50000ms
timeout server 50000ms
listen stats
mode http
bind 0.0.0.0:8888
stats enable
stats uri   /haproxy-status
stats auth    haproxy:saltstack
frontend frontend_www_example_com
bind 172.16.10.62:80
mode http
option httplog
log global
    default_backend backend_www_example_com
backend backend_www_example_com
option forwardfor header X-REAL-IP
option httpchk HEAD / HTTP/1.0
balance source
server web-node1172.16.10.60:8080 check inter 2000 rise 30 fall 15
server web-node2172.16.10.61:8080 check inter 2000 rise 30 fall 15




修改/srv/salt/prod/modules/haproxy/install.sls 添加开启自启动行为(上面的文件已经添加)
创建haproxy的对外业务配置sls文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# cat haproxy-outside.sls
include:
- modules.haproxy.install
haproxy-service:
file.managed:
    - name: /etc/haproxy/haproxy.cfg
    - source: salt://cluster/files/haproxy-outside.cfg
    - user: root
    - group: root
    - mode: 644
service.running:
    - name: haproxy
    - enable: True
    - reload: True
    - require:
      - cmd: haproxy-install
    - watch:
      - file: haproxy-service




同时,需要在base环境中修改top file:

1
2
3
4
5
6
7
# cat top.sls
base:
'*':
    - init.init
prod:
'node*':
    - cluster.haproxy-outside




执行salt高级状态,由于haproxy监听80和8888端口,所以先确保这些端口不被占用:

1
2
# salt 'node1' state.highstate test=True#高级状态指定top file运行
# salt '*' state.highstate




访问监听的8888监控端口:
http://172.16.10.60:8888/haproxy-status
访问两个节点成功,说明配置成功。



页: [1]
查看完整版本: SaltStck 搭建Web集群运用示例 (一)