浙江雁荡山 发表于 2019-2-2 06:55:27

ceph最新版安装教程

  一、准备环境
  4台adminos7环境,存储节点上两块磁盘(sda操作系统,sdb数据盘)
  172.16.8.91 client
  172.16.8.92 admin
  172.16.8.93 storage1
  172.16.8.94 storage2
  172.16.8.95 storage3
  二、配置环境
  1、修改主机名(对应节点上执行)
hostnamectlset-hostname client
hostnamectlset-hostname admin
hostnamectlset-hostname storage1
hostnamectlset-hostname storage2
hostnamectlset-hostname storage3
  2、配置hosts文件(每个节点上均执行)
cat   /dev/mapper/cl-root xfs      26G1.8G   25G   7% /
  devtmpfs            devtmpfs2.0G   02.0G   0% /dev
  tmpfs               tmpfs   2.0G   02.0G   0% /dev/shm
  tmpfs               tmpfs   2.0G8.4M2.0G   1% /run
  tmpfs               tmpfs   2.0G   02.0G   0% /sys/fs/cgroup
  /dev/vda1         xfs      1014M231M784M23% /boot
  tmpfs               tmpfs   396M   0396M   0% /run/user/0
  /dev/rbd0         xfs      10G   33M   10G   1% /mnt
  五、使用ceph集群提供cephfs文件系统
  1、在admin节点上执行如下命令,启用storage1上的mds服务
  $ ceph-deploy mds create storage1
  2、在storage1节点上进行如下操作
  $ sudo chmod 644 /etc/ceph/ceph.client.admin.keyring
  创建名为cephfs_data的pool
  $ ceph osd pool create cephfs_data 128
  pool 'cephfs_data' created
  3、创建名为cephfs_metadata的pool
  $ ceph osd pool create cephfs_metadata 128
  pool 'cephfs_metadata' created
  4、启用pool
  $ ceph fs new cephfs cephfs_metadata cephfs_data
  new fs with metadata pool 2 and data pool 1
  5、查看
  $ ceph fs ls
  name: cephfs, metadata pool: cephfs_metadata, data pools:
  6、查看mds状态
  $ ceph mds stat
  e4: 1/1/1 up {0=storage1=up:creating}
  以下操作在client节点上
  7、安装rpm包
  # yum -y install ceph-fuse
  8、获取admin的key
  # ssh admin@storage1 "sudo ceph-authtool -p /etc/ceph/ceph.client.admin.keyring" > admin.key
  # chmod 600 admin.key
  9、挂载
  # mount -t ceph storage1:6789:/ /mnt -o name=admin,secretfile=admin.key
  # df -hT

  Filesystem          Type   >  /dev/mapper/cl-root xfs      26G1.9G   25G   7% /
  devtmpfs            devtmpfs2.0G   02.0G   0% /dev
  tmpfs               tmpfs   2.0G   02.0G   0% /dev/shm
  tmpfs               tmpfs   2.0G8.4M2.0G   1% /run
  tmpfs               tmpfs   2.0G   02.0G   0% /sys/fs/cgroup
  /dev/vda1         xfs      1014M231M784M23% /boot
  tmpfs               tmpfs   396M   0396M   0% /run/user/0
  172.16.8.94:6789:/    ceph       78G   21G   58G27% /mnt
  附录:
  卸载
  在admin节点上执行卸载所以节点的rpm包
  $ ceph-deploy purge admin storage1 storage2 storage3
  1
  在admin节点上执行,删除所以节点的配置
  $ ceph-deploy purgedata admin storage1 storage2 storage3
  $ ceph-deploy forgetkeys

页: [1]
查看完整版本: ceph最新版安装教程