站点图标 IDC铺

Ceph 架构及性能优化

Ceph 架构及性能优化插图

对分布式存储系统的优化离不开以下几点:

  1. 硬件层面
    • 硬件规划
  1. 软件层面
  1. 其他因素

硬件层面

1、CPU

2、内存

ceph-mon和ceph-mds需要2G内存,每个ceph-osd进程需要1G内存。

3、网络

万兆网络现在基本上是跑Ceph必备的,网络规划上,也尽量考虑分离cilent和cluster网络。网络接口上可以使用bond来提供高可用或负载均衡。

4、SSD

SSD在ceph中的使用可以有几种架构

5、BIOS

软件层面

1、Kernel pid max

echo 4194303 > /proc/sys/kernel/pid_max

2、设置MTU,交换机端需要支持该功能,系统网卡设置才有效果

配置文件追加MTU=9000

3、read_ahead, 通过数据预读并且记载到随机访问内存方式提高磁盘读操作

echo "8192" > /sys/block/sda/queue/read_ahead_kb

4、swappiness, 主要控制系统对swap的使用

echo "vm.swappiness = 0"/>etc/sysctl.conf ;  sysctl –p

5、I/O Scheduler,SSD要用noop,SATA/SAS使用deadline

echo "deadline" >/sys/block/sd[x]/queue/scheduler
echo "noop" >/sys/block/sd[x]/queue/scheduler

6、ceph.conf 配置选项

[global]#全局设置
fsid = 88caa60a-e6d1-4590-a2b5-bd4e703e46d9    #集群标识ID 
mon host = 10.0.1.21,10.0.1.22,10.0.1.23       #monitor IP 地址
auth cluster required = cephx                  #集群认证
auth service required = cephx                  #服务认证
auth client required = cephx                   #客户端认证
osd pool default size = 2                      #最小副本数
osd pool default min size = 1        #PG 处于 degraded 状态不影响其 IO 能力,min_size是一个PG能接受IO的最小副本数
osd pool default pg num = 128        #pool的pg数量
osd pool default pgp num = 128       #pool的pgp数量
public network = 10.0.1.0/24         #公共网络(monitorIP段) 
cluster network = 10.0.1.0/24        #集群网络
max open files = 131072   #默认0#如果设置了该选项,Ceph会设置系统的max open fds
mon initial members = controller1, controller2, compute01 
#初始monitor (由创建monitor命令而定)
##############################################################
[mon]
mon data = /var/lib/ceph/mon/ceph-$id
mon clock drift allowed = 1       #默认值0.05,monitor间的clock drift
mon osd min down reporters = 13   #默认值1,向monitor报告down的最小OSD数
mon osd down out interval = 600   #默认值300,标记一个OSD状态为down和out之前ceph等待的秒数
##############################################################
[osd]
osd data = /var/lib/ceph/osd/ceph-$id
osd journal size = 20000 #默认5120,osd journal大小
osd journal = /var/lib/ceph/osd/$cluster-$id/journal #osd journal位置
osd mkfs type = xfs                     #格式化系统类型
osd mkfs options xfs = -f -i size=2048  #强制格式化
filestore xattr use omap = true         #默认false,为XATTRS使用object map,EXT4文件系统时使用,XFS或者btrfs也可以使用
filestore min sync interval = 10   #默认0.1,从日志到数据盘最小同步间隔(seconds)
filestore max sync interval = 15   #默认5,从日志到数据盘最大同步间隔(seconds)
filestore queue max ops = 25000    #默认500,数据盘最大接受的操作数
filestore queue max bytes = 1048576000      #默认100,数据盘一次操作最大字节数(bytes
filestore queue committing max ops = 50000  #默认500,数据盘能够commit的操作数
filestore queue committing max bytes = 10485760000 #默认100,数据盘能够commit的最大字节数(bytes)
filestore split multiple = 8 #默认值2,#前一个子目录分裂成子目录中的文件的最大数量
filestore merge threshold = 40 #默认值10,#前一个子类目录中的文件合并到父类的最小数量
filestore fd cache size = 1024 #默认值128,#对象文件句柄缓存大小
journal max write bytes = 1073714824 #默认值1048560,journal一次性写入的最大字节数(bytes)
journal max write entries = 10000  #默认值100,journal一次性写入的最大记录数
journal queue max ops = 50000      #默认值50,journal一次性最大在队列中的操作数
journal queue max bytes = 10485760000 #默认值33554432,journal一次性最大在队列中的字节数(bytes)
osd max write size = 512   #默认值90,OSD一次可写入的最大值(MB)
osd client message size cap = 2147483648  #默认值100,客户端允许在内存中的最大数据(bytes)
osd deep scrub stride = 131072   #默认值524288,在Deep Scrub时候允许读取的字节数(bytes)
osd op threads = 16    #默认值2,并发文件系统操作数
osd disk threads = 4   #默认值1,#OSD密集型操作例如恢复和Scrubbing时的线程
osd map cache size = 1024    #默认值500,保留OSD Map的缓存(MB)
osd map cache bl size = 128  #默认值50,OSD进程在内存中的OSD Map缓存(MB)
osd mount options xfs = "rw,noexec,nodev,noatime,nodiratime,nobarrier" #默认值rw,noatime,inode64,Ceph OSD xfs Mount选项
osd recovery op priority = 2   #默认值10,恢复操作优先级,取值1-63,值越高占用资源越高
osd recovery max active = 10    #默认值15,同一时间内活跃的恢复请求数 
osd max backfills = 4           #默认值10,一个OSD允许的最大backfills数
osd min pg log entries = 30000  #默认值3000,修建PGLog是保留的最大PGLog数
osd max pg log entries = 100000  #默认值10000,修建PGLog是保留的最大PGLog数
osd mon heartbeat interval = 40  #默认值30,OSD ping一个monitor的时间间隔(默认30s)
ms dispatch throttle bytes = 1048576000 #默认值 104857600,等待派遣的最大消息数
objecter inflight ops = 819200    #默认值1024 ,客户端流控,允许的最大未发送io请求数,超过阀值会堵塞应用io,为0表示不受限
osd op log threshold = 50       #默认值5,#一次显示多少操作的log
osd crush chooseleaf type = 0   #默认值为1,CRUSH规则用到chooseleaf时的bucket的类型
##############################################################
[client]
rbd cache = true            #默认值 true ,RBD缓存
rbd cache size = 335544320  #默认值33554432,RBD缓存大小(bytes)
rbd cache max dirty = 134217728 #默认值25165824,缓存为write-back时允许的最大dirty字节数(bytes),如果为0,使用write-through
rbd cache max dirty age = 30 #默认值1,在被刷新到存储盘前dirty数据存在缓存的时间(seconds)
rbd cache writethrough until flush = false 
#默认值true,该选项是为了兼容linux-2.6.32之前的virtio驱动,避免因为不发送flush请求,数据不回写。
#设置该参数后,librbd会以writethrough的方式执行io,直到收到第一个flush请求,才切换为writeback方式。
rbd cache max dirty object = 2   
#默认值0,最大的Object对象数,默认为0,表示通过rbd cache size计算得到,librbd默认以4MB为单位对磁盘Image进行逻辑切分。
#每个chunk对象抽象为一个Object;librbd中以Object为单位来管理缓存,增大该值可以提升性能。
rbd cache target dirty = 235544320 
#默认值16777216,开始执行回写过程的脏数据大小,不能超过 rbd_cache_max_dirty

7、PG Number

PG和PGP数量一定要根据OSD的数量进行调整,计算公式如下,但是最后算出的结果一定要接近或者等于一个2的指数。

Total PGs = (Total_number_of_OSD * 100) / max_replication_count

例:有100个osd,2副本,5个pool

Total PGs =100*100/2=5000

每个pool 的PG=5000/5=1000,那么创建pool的时候就指定pg为1024

ceph osd pool create pool_name 1024

8、修改crush map

Crush map可以设置不同的osd对应到不同的pool,也可以修改每个osd的weight

9、其他因素

ceph osd perf

通过osd perf可以提供磁盘latency的状况,如果延时过长,应该剔除osd

退出移动版