自学内容网 自学内容网

ceph资源池pool管理

之前我们已经完成了 Ceph 集群的部署,但是我们如何向 Ceph 中存储数据呢?

  • 首先我们需要在 Ceph 中定义一个 Pool 资源池。

  • Pool 是 Ceph 中存储 Object 对象抽象概念。

  • 我们可以将其理解为 Ceph 存储上划分的逻辑分区,Pool 由多个 PG 组成;而 PG 通过 CRUSH 算法映射到不同的 OSD 上;同时 Pool 可以设置副本 size 大小,默认副本数量为 3。

一个pool资源池应该包含多少PG数?

OSD总数官方推荐PG数
小于5个128
5-10个512
10-50个4096
大于50个参考公式(TargetPGsPerOSD,OSDNumber,DataPercent)/PoolReplicatesize

TargetPGsPerOSD:   每个OSD对应的PG数

OSDNumber:当前OSD总数

DataPercent:当前Pool预计会占用的Ceph集群总空间百分比

PoolReplicatesize:当前pool的副本数

例如:100 * 60 * 50% / 3 = 1000 —> 取最接近2的次方值1024

ceph操作

1.创建存储池

ceph osd pool create <存储池名> <PG数>  [PGP数] 
例如:cd /etc/ceph
ceph osd pool create mypool 64 

2.查看存储池

ceph osd pool ls      
或     
ceph osd lspools                   查看对应的id号 
ceph osd pool get mypool size      查看存储池mypool里的副本数
ceph osd pool get mypool pg_num    查看存储池mypool里的pg数
ceph osd pool get mypool pgp_num   查看存储池mypool里的pgp数

3.设置副本数/PG数/PGP数

ceph osd poll set       <存储池名>   <副本数>/<PG数>/<PGP数>       
例:
修改副本: ceph osd pool set mypool size 2    
修改PG数:ceph osd pool set mypool pg_num 128
修改PGP数:ceph osd pool set mypool pgp_num 128
​
#修改默认副本数为 2
vim ceph.conf
......
osd_pool_default_size = 2
ceph-deploy --overwrite-conf config push node01 node02 node03

4.删除pool资源池

ceph osd pool rm <存储池名> <存储池名> --yes-i-really-really-mean-it   
注:需要先修改ceph配置/etc/ceph/ceph.conf,添加
[mon]
mon allow pool delete = true
​
推送 ceph.conf 配置文件给所有 mon 节点
ceph-deploy --overwrite-conf config push node01 node02 node03
​
所有 mon 节点重启 ceph-mon 服务
systemctl restart ceph-mon.target
​
执行删除 Pool 命令
ceph osd pool rm mypool mypool --yes-i-really-really-mean-it

CephFS操作

服务端操作:

1、在管理节点创建 mds 服务

ceph-doploy mds crcatc <节点> ……        创建MDS
​
cd /etc/ceph
ceph-deploy mds create node01 node02 node03

2.查看各个节点的 mds 服务

ssh root@node01 systemctl status ceph-mds@node01
ssh root@node02 systemctl status ceph-mds@node02
ssh root@node03 systemctl status ceph-mds@node03

3.创建元数据存储池

  • 启用 ceph 文件系统

  • ceph 文件系统至少需要两个 rados 池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。

ceph osd pool create <元数据存储池名> <PG数>           
​
例如:ceph osd pool create cephfs_metadata 128

4.创建数据存储池

ceph osd pool create <数据存储池> <PG数>                    
​
例如:ceph osd pool create cephfs_data 128

5.创建CephFS

ceph fs new <CephFS名称> <元数据存储池名><数据存储池>
​
ceph fs new mycephfs cephfs_metadata cephfs_data        
#启用ceph,元数据Pool在前,数据Pool在后
​
ceph fs ls                  #查看cephfs

6.给挂载用户授权

ceph fs authorize <CephFS名称>client.<用户名><文件系统路径><rw或r>

客户端操作:

mount -t ceph <节点1名称>:6789,<节点2名称>:6789,……:<文件系统路径> <本地挂载点目录> -o name=<用户名>,secret=<密匙>或secretfile=<密匙文件>



ceph-fuse -m <节点1名称>:6789,<节点2名称>:6789,……:<本地挂载点目录> [-o nomepty(如果挂载的是空目录要加这个选项)]

RBD操作:

1.先创建存储池

ceph osd pool create <存储池名> <PG数> 

2.转换为RBD模式

ceph osd pool  application enable <存储池名> rbd

3.初始化存储池

rbd pool init -p <存储池名>

4.指定存储池创建镜像

rbd create -p <存储名> --image <镜像名> --size <镜像大小>
​
可简写为:
rbd create <存储池名>/<镜像名> --size <镜像大小>

5.查看存储池下存在哪些镜像

rbd ls -l -p <存储池名>

6.查看镜像详细信息

rbd info<存储池名>/<镜像名>

7.修改镜像大小

rod resize<存储池名>/<镜像名> --size <镜像大小> [--allow-shrink(缩小镜像大小)]

8.删除镜像

#直接删除镜像
rbd rm -p 存储池名 --image 镜像名
rbd remove <存储池名>/<镜像名>
​
#推荐使用 trash 命令,这个命令删除是将镜像移动至回收站,如果想找回还可以恢复
rbd trash <存储池名>/<镜像名>
rbd ls -l -p 存储池名
rbd trash list -p 存储池名
5fc98fe1f304 镜像名#找出对应的镜像
​
#还原镜像
rbd trash restore rbd-demo/5fc98fe1f304
rbd ls -l -p rbd-demo


原文地址:https://blog.csdn.net/HanYuHao11/article/details/135687353

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!