ceph最新版安装教程
一、准备环境4台adminos7环境,存储节点上两块磁盘(sda操作系统,sdb数据盘)
172.16.8.91 client
172.16.8.92 admin
172.16.8.93 storage1
172.16.8.94 storage2
172.16.8.95 storage3
二、配置环境
1、修改主机名(对应节点上执行)
hostnamectlset-hostname client
hostnamectlset-hostname admin
hostnamectlset-hostname storage1
hostnamectlset-hostname storage2
hostnamectlset-hostname storage3
2、配置hosts文件(每个节点上均执行)
cat /dev/mapper/cl-root xfs 26G1.8G 25G 7% /
devtmpfs devtmpfs2.0G 02.0G 0% /dev
tmpfs tmpfs 2.0G 02.0G 0% /dev/shm
tmpfs tmpfs 2.0G8.4M2.0G 1% /run
tmpfs tmpfs 2.0G 02.0G 0% /sys/fs/cgroup
/dev/vda1 xfs 1014M231M784M23% /boot
tmpfs tmpfs 396M 0396M 0% /run/user/0
/dev/rbd0 xfs 10G 33M 10G 1% /mnt
五、使用ceph集群提供cephfs文件系统
1、在admin节点上执行如下命令,启用storage1上的mds服务
$ ceph-deploy mds create storage1
2、在storage1节点上进行如下操作
$ sudo chmod 644 /etc/ceph/ceph.client.admin.keyring
创建名为cephfs_data的pool
$ ceph osd pool create cephfs_data 128
pool 'cephfs_data' created
3、创建名为cephfs_metadata的pool
$ ceph osd pool create cephfs_metadata 128
pool 'cephfs_metadata' created
4、启用pool
$ ceph fs new cephfs cephfs_metadata cephfs_data
new fs with metadata pool 2 and data pool 1
5、查看
$ ceph fs ls
name: cephfs, metadata pool: cephfs_metadata, data pools:
6、查看mds状态
$ ceph mds stat
e4: 1/1/1 up {0=storage1=up:creating}
以下操作在client节点上
7、安装rpm包
# yum -y install ceph-fuse
8、获取admin的key
# ssh admin@storage1 "sudo ceph-authtool -p /etc/ceph/ceph.client.admin.keyring" > admin.key
# chmod 600 admin.key
9、挂载
# mount -t ceph storage1:6789:/ /mnt -o name=admin,secretfile=admin.key
# df -hT
Filesystem Type > /dev/mapper/cl-root xfs 26G1.9G 25G 7% /
devtmpfs devtmpfs2.0G 02.0G 0% /dev
tmpfs tmpfs 2.0G 02.0G 0% /dev/shm
tmpfs tmpfs 2.0G8.4M2.0G 1% /run
tmpfs tmpfs 2.0G 02.0G 0% /sys/fs/cgroup
/dev/vda1 xfs 1014M231M784M23% /boot
tmpfs tmpfs 396M 0396M 0% /run/user/0
172.16.8.94:6789:/ ceph 78G 21G 58G27% /mnt
附录:
卸载
在admin节点上执行卸载所以节点的rpm包
$ ceph-deploy purge admin storage1 storage2 storage3
1
在admin节点上执行,删除所以节点的配置
$ ceph-deploy purgedata admin storage1 storage2 storage3
$ ceph-deploy forgetkeys
页:
[1]