342132123 发表于 2016-12-5 09:04:58

Ceph块设备管理与Openstack配置(上)

Oepnstack之CEPH系列是根据Ceph Cookbook整理的笔记,分为以下几个部分:
[*]《Ceph简介》

[*]《Ceph集群操作》

[*]《Ceph块设备管理与Openstack配置》

[*]《深入Ceph》

[*]《ceph优化与性能测试》

注意:此文对应ceph版本为10.1.2
1
2
#ceph -v
ceph version 10.1.2(4a2a6f72640d6b74a3bbd92798bb913ed380dcd4)




前言目前接触到的Mitaka版本Openstack中,ceph主要用来提供块设备作为cinder、nova、glance的存储端。本篇也是讲述的块设备的相关概念及管理,以及在Openstack中虚拟机不同的启动方式对应ceph中不同的存储结构。本篇分为两个部分:块设备的特性与rbd命令;Openstack中ceph块设备使用。Ceph块设备Ceph块设备即RBD(RADOS Block Device),RBD通过librbd将数据条带化的存在ceph集群的OSD上。同时RBD是建立RADOS层之上,这样每一个块设备都会分布在多个ceph节点上。目前RBD驱动已经完美集成在linux内核中,提供了多种企业特性,如完整和增量快照(full and incremental snapshot)、自动精简配置(thin provision)、写时复制克隆(copy on write clone)、动态调整大小(dynamic resizing)、内存内缓存(In-memory caching)。
RBD的读写方式有下面两种:

[*]1、在虚拟化引擎支持下,通过Hypervisor控制librbd库来对块设备读写。在对接上Openstack后,可以很好的利用RBD写时复制特性来快速启动多台虚拟机,后面会进一步介绍相关内容。

[*]2、在映射完块设备后,本地文件系统通过内核KRBD驱动直接访问。

一、RBD命令操作创建块设备

1
2
3
4
5
6
7
8
9
10
11
12
13
~~~bash
rbd create-pvolumes--size 1024   rbd_test
-p 参数指定存储池,--size 指定大小,默认以M为单位,可以自己加单位如10G,最后rbd_test为创建的镜像名。

rbd ls|list   -p volumes
查看volumes池下的images即块设备

rbddu   -p volumes
查看volumes的使用情况。可以观察到使用了精简配置。

rbd info-p volumes   rbd_test
查看rbd_test的相关信息,如大小,objects数量,order,format id和features。
~~~





Tips:1、-p 参数有时候可省略,使用pool/image_name的方式,如rbd info volumes/rbd_test
2、 创建块设备时默认object层为2,即带上了 –image-format 2的参数,会有许多高级性能,默认有features: layering, exclusive-lock, object-map, fast-diff, deep-flatten。

映射块设备

1
2
3
4
5
6
7
8
rbd map volumes/rbd_test
映射rbd_test到本地

rbd showmapped
查看映射的设备,有点问题,默认只能查看rbd池的块设备,其他池的只能看上一条命令的输出结果。默认从/dev/rbd0开始

mkfs.xfs/dev/rbd0;mkdir-p /mnt/rbd_test; mount /dev/rbd0   /mnt/rbd_test
格式化并挂载。





Tips:1、map是报错”rbd: sysfs write failed
rbd: map failed: (6) No such device or address“,这是因为上面创建的object特性引起的,在我当前Ubuntu1610上,map命令不支持exclusive-lock之后等相关特性,需要手动指定layering特性,或者将image-format值设为1


1
rbd create -p volumes --size 10rbd_test1 --image-format 2 --image-feature layering






调整RBD镜像大小

在上面的映射完块设备格式化挂载后,使用resize命令调整RBD,然后用XFS在线调整特性扩容文件系统。

1
2
rbd resizevolume/rbd_test--size 20
xfs_growfs -d /mnt/rbd_test




二、RBD快照与克隆为了深入了解Openstack中nova、cinder、glance之前的存储关
系,需要学习RBD的快照与克隆。
快照是某时间点上生成的只读RBD镜像的副本。1、RBD快照操作

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
echo "hello ,This is a file ready to delete!" >>/mnt/rbd_test/snap_test_file
在块设备的挂载目录创建一个文件。

rbd snap create volumes/rbd_test@snapshot1
创建一个snapshot1的镜像。

rbd snap lsvolumes/rbd_test
查看volumes池中rbd_test镜像所拥有的快照

##测试快照功能
rm-rf /mnt/rbd_test/*

rbd snap rollback   volumes/rbd_test@snapshot1
将volumes/rbd_test的快照snapshot1回滚

umount/dev/rbd0
mount /dev/rbd0 /mnt/rbd_test
ls/mnt/rbd_test
观察到文件恢复

## 快照的删除
rbd snaprm volumes/rbd_test@snapshot1
rbd snap purge volumes/rbd_test
批量删除rbd_test上的镜像。





Tips:1、快照和被快照的镜像是同等的,具有相同大小和特性,都是池中的一个镜像。
2、新建的快照通过”rbd ls”查看不到,需要用”rbd du”

2、RBD克隆操作
Ceph一个非常好的特性,即以COW(写时复制)的方式从RBD快照创建克隆(clone),在ceph中也称为快照分层(snapshow layering)。
在云平台中通常以创建快照来保护RBD镜像(rbd du -p images查看)。然后再从快照上来启动实例。启动的实例是COW克隆镜像。每一个克隆镜像都需要读取父镜像的数据,因此父镜像需要设置保护。当新的数据写入克隆镜像时会存在本身,克隆镜像与RBD镜像具有相同功能,如创建快照等。


1
2
3
4
5
6
7
8
9
10
11
12
13
14
rbd snap create volumes/rbd_test@snapshot_for_clone
创建一个名为snapshot_for_clone的镜像

rbd snap protectvolumes/rbd_test@snapshot_for_clone
对此镜像设置保护

rbd clonevolumes/rbd_test@snapshot_for_clone   volumes/clone_rbd
创建克隆镜像

rbd infovolumes/clone_rbd
查看克隆镜像

##将克隆镜像独立出来,完全拥有父镜像数据,中断依赖关系
rbd flattenvolumes/clone_rbd




Tips:1、一个快照需要有分层特性(layering)才能创建COW克隆。在旧版本创建镜像默认为format-1类型,不具有此特性。Ending:Ceph块设备管理与Openstack配置上篇结束,下篇将开始记录RBD在Openstack中的不同表现方式~

页: [1]
查看完整版本: Ceph块设备管理与Openstack配置(上)