pool是ceph存储数据时的逻辑分区,它起到namespace的作用。其他分布式存储系统,比如Mogilefs、Couchbase、Swift都有pool的概念,只是叫法不同。每个pool包含一定数量的PG,PG里的对象被映射到不同的OSD上,因此pool是分布到整个集群的。
pool有两种方法增强数据的可用性,一种是副本(replicas),另一种是EC(erasure coding)。从Firefly版本起,EC功能引入。在EC里,数据被打散成碎片,加密,然后进行分布式存储。ceph由于其分布式能力,处理EC非常成功。pool在创建时可以设置这两种方法之一,但不能同时设置两者。
pool默认的副本数量是3,我们可以自己控制副本的数量。ceph的复制能力非常灵活,可以在任何时候更改这个参数。
在数据写往pool时,遵循CRUSH的规则集,也就是说,写往哪个位置以及副本数量,受规则集影响。这个规则集是pool的重要功能。比如我们可以通过规则集,定义一个pool使用SSD存储,另一个pool使用SATA存储,见前文描述。
pool也支持snapshot功能。可以运行ceph osd pool mksnap命令创建pool的快照,并且在必要的时候恢复它。还可以设置pool的拥有者属性,从而进行访问控制。
创建ceph pool的命令如下,它的参数包括pool名字、PG和PGP的数量。
$ ceph osd pool create mytest 128 128 pool 'mytest' created
查看pool有几种方式,比如:
$ rados lspools data metadata rbd mytest $ ceph osd lspools 0 data,1 metadata,2 rbd,3 mytest, $ ceph osd dump |grep pool pool 0 'data' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 43 flags hashpspool crash_replay_interval 45 stripe_width 0 pool 1 'metadata' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 41 flags hashpspool stripe_width 0 pool 2 'rbd' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 45 flags hashpspool stripe_width 0 pool 3 'mytest' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 128 pgp_num 128 last_change 58 flags hashpspool stripe_width 0
毫无疑问ceph osd dump输出的信息最详尽,包括pool ID、副本数量、CRUSH规则集、PG和PGP数量等。
可以调整刚创建的pool的副本数量:
$ ceph osd pool set mytest size 2 set pool 3 size to 2
如下命令演示ceph的snapshot功能。我们往pool里写入一个对象,然后获取pool的快照,接着删除对象,最后从快照里恢复数据。
# 写入一个文件 $ rados -p mytest put testfile /etc/hosts # 查看这个文件 $ rados -p mytest ls testfile # 创建pool的快照 $ rados mksnap snapshot001 -p mytest created pool mytest snap snapshot001 # 查看pool的快照 $ rados lssnap -p mytest 1 snapshot001 2015.11.30 09:50:38 1 snaps # 删除文件 $ rados -p mytest rm testfile # 从快照里回滚文件 $ rados rollback -p mytest testfile snapshot001 rolled back pool mytest to snapshot snapshot001 # 确认结果 $ rados -p mytest ls testfile
删除pool会同步删除所有快照。在删除pool后,需要删除pool的CRUSH规则集,假如你手工创建过它们。同样也需删除这个pool的授权用户。
$ ceph osd pool delete mytest mytest --yes-i-really-really-mean-it pool 'mytest' removed
上述删除命令,pool名字输入两次,并且带上–yes-i-really-really-mean-it参数,感觉多此一举的说。