hgjgh 发表于 2019-2-2 09:34:10

openstack 组件volume,image后端存储使用ceph

  Ceph是一个 Linux PB 级分布式文件系统
  ceph 部署安装请参考:
  
Ubuntu 12.04 Ceph分布式文件系统之概述
Ubuntu 12.04 Ceph分布式文件系统之部署
  一、在ceph中创建一个pool
  默认情况下,Ceph块设备使用rbd pool。你可以使用任何可用的pool。我们建议创建一个新的pool。确保你的Ceph集群正在运行,然后创建池。
ceph osd pool create volumes 128  
ceph osd pool create images 128
  二、配置 OpenStack Ceph 客户端
  1、openstack 运行 glance-api, nova-compute, and nova-volume orcinder-volume的服务器需要 ceph.conf配置文件:
ssh {your-openstack-server} sudo tee /etc/ceph/ceph.conf   (3)为客户端client.volumes 和 client.images添加key
ceph auth get-or-create client.images | ssh {your-glance-api-server} sudo tee /etc/ceph/ceph.client.images.keyring  
ssh {your-glance-api-server} sudo chown glance:glance /etc/ceph/ceph.client.images.keyring
  
ceph auth get-or-create client.volumes | ssh {your-volume-server} sudo tee /etc/ceph/ceph.client.volumes.keyring
  
ssh {your-volume-server} sudo chown cinder:cinder /etc/ceph/ceph.client.volumes.keyring
  三、配置openstack 使用ceph
  1、配置glance
  修改 /etc/glance/glance-api.conf 文件配置以下内容:
default_store=rbd  
rbd_store_user=images
  
rbd_store_pool=images
  
show_image_direct_url=True
  
  2、配置Cinder/nova-volume
  修改 /etc/cinder/cinder.conf 文件配置以下内容:
volume_driver=cinder.volume.driver.RBDDriver  
rbd_pool=volumes
  
  3、重启openstack相关服务
sudo service glance-api restart  
sudo service nova-compute restart
  
sudo service cinder-volume restart
  四、测试
  1、创建volume存储
cinder create --image-id {id of image} --display-name {name of volume} {size of volume}  2、上传镜像
glance --os_username={TENANT_NAME} --os_password={TENANT_PASS} --os_tenant={TENANT} --os_auth_url={OS_AUTH_URL} add name="{glance_name}" disk_format=aki container_format=aki < {IMAGE_FILE}  五、查看pool
  这个环境中glance没有使用ceph
rados df  
pool name       category               KB      objects       clones   degraded      unfound         rd      rd KB         wr      wr KB
  
volumes-                  9618834         2586            0            0         0         20            3      71686   37911743
  
data            -                        0            0            0            0         0            0            0            0            0
  
metadata      -                        9         21            0            0         0         11            0         52         26
  
rbd             -                        0            0            0            0         0            0            0            0            0
  
total used      23486608         2607
  
total avail      176679288
  
total space      200165896


页: [1]
查看完整版本: openstack 组件volume,image后端存储使用ceph