管理ceph的pool

pool是ceph存储数据时的逻辑分区,它起到namespace的作用。其他分布式存储系统,比如Mogilefs、Couchbase、Swift都有pool的概念,只是叫法不同。每个pool包含一定数量的PG,PG里的对象被映射到不同的OSD上,因此pool是分布到整个集群的。

pool有两种方法增强数据的可用性,一种是副本(replicas),另一种是EC(erasure coding)。从Firefly版本起,EC功能引入。在EC里,数据被打散成碎片,加密,然后进行分布式存储。ceph由于其分布式能力,处理EC非常成功。pool在创建时可以设置这两种方法之一,但不能同时设置两者。

pool默认的副本数量是3,我们可以自己控制副本的数量。ceph的复制能力非常灵活,可以在任何时候更改这个参数。

在数据写往pool时,遵循CRUSH的规则集,也就是说,写往哪个位置以及副本数量,受规则集影响。这个规则集是pool的重要功能。比如我们可以通过规则集,定义一个pool使用SSD存储,另一个pool使用SATA存储,见前文描述

pool也支持snapshot功能。可以运行ceph osd pool mksnap命令创建pool的快照,并且在必要的时候恢复它。还可以设置pool的拥有者属性,从而进行访问控制。

创建ceph pool的命令如下,它的参数包括pool名字、PG和PGP的数量。

$ ceph osd pool create mytest 128 128
pool 'mytest' created

查看pool有几种方式,比如:

$ rados lspools
data
metadata
rbd
mytest

$ ceph osd lspools
0 data,1 metadata,2 rbd,3 mytest,

$ ceph osd dump |grep pool
pool 0 'data' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 43 flags hashpspool crash_replay_interval 45 stripe_width 0
pool 1 'metadata' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 41 flags hashpspool stripe_width 0
pool 2 'rbd' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 45 flags hashpspool stripe_width 0
pool 3 'mytest' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 58 flags hashpspool stripe_width 0

毫无疑问ceph osd dump输出的信息最详尽,包括pool ID、副本数量、CRUSH规则集、PG和PGP数量等。

可以调整刚创建的pool的副本数量:

$ ceph osd pool set mytest size 2
set pool 3 size to 2

如下命令演示ceph的snapshot功能。我们往pool里写入一个对象,然后获取pool的快照,接着删除对象,最后从快照里恢复数据。

# 写入一个文件
$ rados -p mytest put testfile /etc/hosts

# 查看这个文件
$ rados -p mytest ls
testfile

# 创建pool的快照
$ rados mksnap snapshot001 -p mytest
created pool mytest snap snapshot001

# 查看pool的快照
$ rados lssnap -p mytest
1 snapshot001 2015.11.30 09:50:38
1 snaps

# 删除文件
$ rados -p mytest rm testfile

# 从快照里回滚文件
$ rados rollback -p mytest testfile snapshot001
rolled back pool mytest to snapshot snapshot001

# 确认结果
$ rados -p mytest ls
testfile

删除pool会同步删除所有快照。在删除pool后,需要删除pool的CRUSH规则集,假如你手工创建过它们。同样也需删除这个pool的授权用户。

$ ceph osd pool delete mytest mytest --yes-i-really-really-mean-it
pool 'mytest' removed

上述删除命令,pool名字输入两次,并且带上–yes-i-really-really-mean-it参数,感觉多此一举的说。

此条目发表在Common分类目录,贴了, 标签。将固定链接加入收藏夹。