openstack搭建教程(RDO搭建OpenStack平台)

zhangyang 2022-05-08 阅读:24
  

实验拓扑:

   「Openstack」Ceph  与Openstack存储对接

1.配置Openstack为Ceph客户端

  

1、客户端安装

   #将云计算节点添加主机,安装安装脑磷脂客户端软件,管理员将配置拷贝到节点

  [root @ ceph-node 1 ~]# echo ' 192。168 .1 .110控制器/etc/hosts

  [root @ ceph-node 1 ceph]# ceph-部署安装控制器

  [root @ ceph-node 1 ceph]# ceph-部署管理控制器

2.配置后端存储池

   「Openstack」Ceph  与Openstack存储对接

  #分别创建存储池对应扫视\新星\煤渣服务

  [root@ceph-node1 ceph]# ceph osd池创建映像128

  池"图像"已创建

  [root@ceph-node1 ceph]# ceph osd池创建虚拟机128

  池"虚拟机"已创建

  [root@ceph-node1 ceph]# ceph osd池创建卷128

  池"卷"已创建查看当前存储池

「Openstack」Ceph  与Openstack存储对接

  #创建存储用户认证,PS:更新认证使用大写字母

  [root @ ceph-node 1 ceph]# ceph auth获取或创建客户端。glance mon ' allow r ' OSD ' allow class-read object _ prefix rbd _ children,allow rwx pool=images '

  [client.glance.mon]

  key=aqawxx 1 frbmllbaamceloko q 55 bqgb 0 u 34 gjfw==#拷贝密钥到云计算

  [root @ ceph-node 1 ceph]# ceph auth获取或创建客户端。glance | ssh控制器tee/etc/ceph/ceph。客户。一瞥。钥匙环

  root @控制器的密码:

  [client.glance]

  key=aqbgxx1 fmx 9 ggraanb0ki CQ 1 bexhgvq 6 qyhkg==#修改节点的钥匙圈权限

  [root@ceph-node1 ceph]# ssh控制器chown glance : glance/etc/ceph/ceph。客户。一瞥。钥匙环

  root @控制器的密码

2.配置Glance服务

   #修改glance-api.conf配置,如下

  [root@co

ntroller glance]# vim /etc/glance/glance-api.conf [DEFAULT]rpc_backend = rabbitshow_image_direct_url = True [glance_store]stores = rbddefault_store = rbdrbd_store_pool = imagesrbd_store_user = glancerbd_store_ceph_conf = /etc/ceph/ceph.confrbd_store_chunk_size = 8「Openstack」Ceph 与Openstack存储对接

  「Openstack」Ceph 与Openstack存储对接

  #修改完成后重启glance-api服务

[root@controller glance]# openstack-service restart glance-api

  测试:

  在ceph中启动虚拟机,只支持镜像格式为raw,因此先转换镜像格式为raw

[root@controller images]# qemu-img convert -p -f qcow2 -O raw cirros-0.3.4-x86_64-disk.img cirros.raw    (100.00/100%)

  使用glance image-create命令上传镜像

「Openstack」Ceph 与Openstack存储对接

  成功上传后,rbd ls images查看镜像池

「Openstack」Ceph 与Openstack存储对接

  可以看到存储池中的文件与镜像的ID相同,glance后端存储配置完成

「Openstack」Ceph 与Openstack存储对接

  

3.配置NOVA服务

  建议先配置Cinder服务的对接

  Nova compute使用RBD有两种方式:一种是将cinder volume挂载给虚拟机;另一种是从Cinder volume 上启动虚拟机,此时Nova需要创建一个RBDimage,把glance image的内容导入,再交给libvirt。

  这边验证第一种Nova使用Ceph的情况:

[root@controller ~]# vim /etc/nova/nova.conf [libvirt]virt_type = qemuinject_key = Truerbd_user = cinderrbd_secret_uuid = 674fea11-e69e-4c95-b378-2baa19cd6b4e[root@controller ~]# systemctl restart openstack-nova-compute
「Openstack」Ceph 与Openstack存储对接

  测试:

  查询网络id,nova boot启动一台cirros镜像的实例,名称为ceph-VM-test

「Openstack」Ceph 与Openstack存储对接

  查询之前创建在ceph的云硬盘ID,nova volume-attach挂载云硬盘到ceph-VM-test实例

「Openstack」Ceph 与Openstack存储对接

  再次列出cinder硬盘,可以看到卷成功挂载

「Openstack」Ceph 与Openstack存储对接

  Dashboard上云主机界面,云主机正常运行

「Openstack」Ceph 与Openstack存储对接

  Dashboard上卷界面,云硬盘挂载正常

「Openstack」Ceph 与Openstack存储对接

  网络配置正常,ssh连接实例成功

「Openstack」Ceph 与Openstack存储对接

  

4.配置Cinder服务

  #创建cinder认证

[root@ceph-node1 ceph]# ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes,allow rwx pool=vms, allow rx pool=images'[client.cinder]        key = AQBl0R1fa0KcFBAA3GDkcSyiC+A50ufHyqc6qQ==

  #拷贝keyring文件到openstack

[root@ceph-node1 ceph]# ceph auth get-or-create client.cinder|ssh controller tee /etc/ceph/ceph.client.cinder.keyringroot@controller's password: [client.cinder]        key = AQBl0R1fa0KcFBAA3GDkcSyiC+A50ufHyqc6qQ==

  #修改keyring文件权限

[root@ceph-node1 ceph]# ssh controller chown cinder:cinder /etc/ceph/ceph.client.cinder.keyringroot@controller's password:

  在Openstack节点上生成UUID,编写定义secret.xml文件,设置密钥给libvirt

  #openstack创建uuid

[root@controller ~]# uuidgen674fea11-e69e-4c95-b378-2baa19cd6b4e

  #编写定义secret.xml文件,拷贝UUID

[root@controller ~]# vim secret.xml<secret ephemeral='no' private='no'><uuid>674fea11-e69e-4c95-b378-2baa19cd6b4e</uuid><usage type='ceph'><name>client.cinder secret</name></usage></secret>
「Openstack」Ceph 与Openstack存储对接

  #define定义密钥文件

[root@controller ~]# virsh secret-define --file secret.xml 生成 secret 674fea11-e69e-4c95-b378-2baa19cd6b4e

  #生成保密字符串文件

[root@controller ~]# virsh secret-set-value --secret 674fea11-e69e-4c95-b378-2baa19cd6b4e --base64 $(cat ./client.cinder.key)

  secret值设定

  查看系统密钥文件

「Openstack」Ceph 与Openstack存储对接

  

[root@controller ceph]# vim /etc/cinder/cinder.conf[DEFAULT]rpc_backend = rabbitauth_strategy = keystonemy_ip = 192.168.1.110enabled_backends = cephglance_api_servers =http://controller:9292 [ceph]volume_driver = cinder.volume.drivers.rbd.RBDDriverrbd_pool = volumesrbd_ceph_conf = /etc/ceph/ceph.confrbd_flatten_volume_from_snapshot = falserbd_max_clone_depth = 5rbd_store_chunk_size = 4rados_connect_timeout = -1glance_api_version = 2rbd_user = cinderrbd_secret_uuid = 674fea11-e69e-4c95-b378-2baa19cd6b4e
「Openstack」Ceph 与Openstack存储对接

  「Openstack」Ceph 与Openstack存储对接

  

[root@controller ceph]# systemctl restart openstack-cinder-volume.service

  测试:

  cinder创建磁盘ceph-disk

「Openstack」Ceph 与Openstack存储对接

  列出cinder磁盘,新建的磁盘状态为available

「Openstack」Ceph 与Openstack存储对接

  dashboard界面显示可用

「Openstack」Ceph 与Openstack存储对接

  最后到存储池中查看,已经有ID和ceph-disk卷相同的文件。cinder对接ceph完成

「Openstack」Ceph 与Openstack存储对接

  

评论(0)

二维码