雷锋 发表于 2019-1-6 14:28:58

DRBD+Heartbeat+NFS实验笔记

http://lucklong.blog.运维网.com/attachment/201106/19/23691_13084973714oDa.jpg
  环境:
  Vmware6.5
  Server1: eth0:192.168.1.201 sdb1 10G 心跳线: eth1: 10.10.10.131
  Server2 eth0:192.168.1.202 sdb1 10G 心跳线:eth1:10.10.10.132
  Heartbeat虚拟IP: 192.168.1.200
  步骤:
  一、 设置两台服务器的网卡信息、hosts、主机名等基本信息及sdb硬盘初始化。
  此处我们只看看/etc/hots文件设置
http://lucklong.blog.运维网.com/attachment/201106/19/23691_1308497379TXL6.jpg
  二、安装并设置drbd
  1)安装drbd
  #tar -zxvf drbd-8.3.10.tar.gz
  #cd drbd-8.3.10
  #./configure --prefix=/ --with-km
  #make
  #make install
  #chkconfig --add drbd
  #chkconfig drbd on
  2)DRBD的配置文件位于/etc/drbd.conf
  --------------------------------------------------------
  #cat /etc/drbd.conf
  #
  # drbd.conf
  #
  # create by jackbillow@gmail.com at 2010-08-12
  global {
  usage-count no;
  }
  common {
  syncer { rate 200M; }
  }
  resource drbdtest {
  protocol C;
  handlers {
  pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f";
  pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f";
  local-io-error "echo o > /proc/sysrq-trigger ; halt -f";
  fence-peer "/usr/lib64/heartbeat/drbd-peer-outdater -t 5";
  pri-lost "echo pri-lost. Have a look at the log files. | mail -s 'DRBD Alert' root";
  split-brain "/usr/lib/drbd/notify-split-brain.sh root";
  out-of-sync "/usr/lib/drbd/notify-out-of-sync.sh root";
  }
  net {
  cram-hmac-alg "sha1";
  shared-secret "mydrbdtest";
  }
  disk {
  on-io-error detach;
  fencing resource-only;
  }
  startup {
  wfc-timeout 120;
  degr-wfc-timeout 120;
  }
  device /dev/drbd0;
  on server1{
  disk /dev/sdb1;
  address 192.168.1.201:7788;
  meta-disk internal;
  }
  on server2 {
  disk /dev/sdb1;
  address 192.168.1.202:7788;
  meta-disk internal; }
  }
  将上面这个drbd.conf文件分别复制到两台主机的/etc目录下。
  ----------------------------------------------------------------
  3)创建drbd块设备
  # drbdadm create-md drbdtest
  Writing meta data...
  initializing activity log
  NOT initialized bitmap
  New drbd meta data block successfully created.
  在两台主机上执行同样的命令
  4)启动drbd服务
  #service drbd start 或 /etc/init.d/drbd start
  此时drbd状态还是secondary/secondary,我们要把192.168.1.201设置为主服务器
  # drbdsetup /dev/drbd0 primary -o
  再次查看drbd状态,
  # cat /proc/drbd
  version: 8.3.10 (api:88/proto:86-96)
  GIT-hash: 5c0b0469666682443d4785d90a2c603378f9017b build by root@server1, 2011-06-10 00:16:16
  0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r-----
  ns:1095660 nr:0 dw:0 dr:1103744 al:0 bm:66 lo:1 pe:6 ua:64 ap:0 ep:1 wo:b oos:9387112
  [=>..................] sync'ed: 10.6% (9164/10236)M
  finish: 0:07:51 speed: 19,884 (18,248) K/sec
  看到已经同步,并开始传送数据,稍等一会再次查看磁盘状态都是”实时”,表示数据同步完成了。
  二、 设置NFS及相关资源
  启动portmap和nfs服务,并设置开机启动,
  #service portmap start
  #service nfs start
  #chkconfig --level 345 portmap on
  #chkconfig --level 345 nfs on
  在server1上格式化drbd0设备,并挂载在/nfs目录
  # mkfs.ext3 /dev/drbd0
  # mkdir /nfs
  现在可以把server1上的DRBD设备挂载到/nfs目录上进行使用。备机的DRBD设备无法被挂载,因为它是用来接收主机数据的,由DRBD负责操作。
  # mount /dev/drbd0 /nfs
  在/etc/exports 上将/nfs目录共享出去,并reload
  exportfs –r
  如果不使用heartbeat的情况下,DRBD只能手工切换主从关系
  现在修改heartbeat的配置文件,使DRBD可以通过heartbeat自动切换
  # vi /etc/ha.d/haresources
  Server1 192.168.1.201 drbddisk::drbdtest Filesystem::/dev/drbd0::/nfs::ext3 drbd portmap nfs
  注释:上面那行
  Server1 定义Server1为heartbeat的主机
  192.168.1.201 定义对外服务的IP地址,这个IP自动在主从机之间切换
  drbddisk::drbdtest 定义使用的drbd资源
  Filesystem::/dev/drbd0::/nfs::ext3 定义挂载文件系统
  drbd portmap nfs 定义其他需要切换的服务(用空格隔开)
  三、 安装并配置heartbeat
  1、 先创建heartbeat需要的用户
  groupadd haclient
  useradd hacluster -g haclient
  2、安装heartbeat前,需要先安装libnet包。
  tar zxvf heartbeat-2.1.3.tar.gz
  rpm –ivh libnet-1.1.2.1-2.2.el5.rf.i386.rpm
  cd heartbeat-2.0.7
  ./configure
  make
  make install
  两台机器都要安装,操作一样。
  3、查找下ha.cf等三个配置文件的位置,然后将他们拷贝到/usr/local/etc/ha.d/目录中
  # find / -name ha.cf
  /usr/local/share/doc/heartbeat-2.0.7/ha.cf
  /root/heartbeat-2.0.7/doc/ha.cf
  #cp /usr/local/share/doc/heartbeat-2.0.7/ha.cf /usr/local/etc/ha.d/ha.cf
  # cp /usr/local/share/doc/heartbeat-2.0.7/haresources /usr/local/etc/ha.d/haresources
  # cp /usr/local/share/doc/heartbeat-2.0.7/authkeys /usr/local/etc/ha.d/authkeys
  4、修改配置文件如下:
  1)ha.cf配置内容:
  ------------------------------------------------------------------------------------------------------------
  logfile /var/log/ha-log
  keepalive 2
  deadtime 30
  warntime 10
  initdead 120
  udpport 694
  bcast eth1
  ucast eth1 10.10.10.132 。
  auto_failback on
  node server1
  node server2
  ping_group group1 192.168.1.1 221.5.88.88
  respawn hacluster /usr/lib/heartbeat/ipfail
  apiauth ipfail gid=haclient uid=hacluster
  ------------------------------------------------------------------------------------------------------------------
  2)haresources配置内容;
  server1 192.168.1.200 drbddisk::drbdtest Filesystem::/dev/drbd0::/nfs::ext3 drbd portmap nfs
  3)authkeys的配置内容:
  auth 1
  1 crc
  #2 sha1 HI!
  #3 md5 Hello!
  Server1和server2的配置是一样的,除了在server2的ha.cf中将ucast的IP修改为10.10.10.131。
  设置haresources文件的权限为600。
  启动heartbeat ,却发现错误,原因在于我们的配置文件里的ipfail文件位置不对,我们可以寻找下。
  # cd /usr/lib/
  # find / -name ipfail
  /usr/local/lib/heartbeat/ipfail
  /root/heartbeat-2.0.7/contrib/ipfail
  /root/heartbeat-2.0.7/contrib/ipfail/ipfail
  /root/heartbeat-2.0.7/contrib/ipfail/.libs/ipfail
  我们将ha.cf的配置内容修改为/usr/local/lib/heartbeat/ipfail
  此时启动heartbeat服务,发现过了一会,我们的虚拟IP 就ping不通了,查看日志
  发现时drbddisk的资源找不到,我们将drbddisk拷贝一份到/usr/local/etc/ha.d/resource.d,
  # cp /etc/ha.d/resource.d/drbddisk /usr/local/etc/ha.d/resource.d/drbddisk
  分别在server1和server2上执行。
  然后再次启动heartbeat,此时就没问题了。
  确定heartbeat和DRBD开机自启动
  确定需要由heartbeat切换的服务,开机不自启动(由heartbeat来启用相关的服务)
  四、测试



页: [1]
查看完整版本: DRBD+Heartbeat+NFS实验笔记