Ceph开发每周谈 Vol 66 | Linux Vault 2017

2017年03月 · 麦子迈

这是Ceph开发每周谈的第六十六篇文章,记录从17年3月13号到17年3月19号的社区开发情况。笔者从前年开始做Ceph的技术模块分析到今年中告一段落,想必有挺多人期待下一篇Ceph技术分析。考虑到Ceph的发展已经从前年的一穷二白到现在的如火如荼,但对于社区的方向和实况仍有所脱节,笔者考虑开始Ceph开发每周谈这个系列。每篇文章都会综述上周技术更新,围绕几个热点进行深度解析,如果正好有产业届新闻的话就进行解读,最后有读者反馈问题的话并且值得一聊的话,就附上答疑部分。

  • Ceph Vault Meeting

在 Linux Vault 的前一天,部分 Ceph 活跃开发者在 Linux Vault 会场一起回顾了一下最近的一些计划,有 Sage Weil,Rados PTL Josh Durgin,RBD PTL Jason,CephFS PTL John,以及其他 RGW 和 RBD 相关开发者,讨论未来的一些计划。目前 L 版本看起来还有点距离,主要是 Sage 在最近又进来了大量的 BlueStore 重构,导致稳定性下降,影响了整个进度。其次,OSDMap 的 PG 临时映射也要考虑进来,然后 ceph-mgr 也要稳定下来。总的来说,还需要一些时间。

目前来说,对 Ceph 最大的挑战仍然是性能,大量的上下游项目都努力改进 Ceph,但是主干 IO 路径仍然存在大量低效实现。

  • I/O Latency Optimization with Polling

HGST 日本工程师介绍了一个 libnvme 的新项目(https://github.com/hgst/libnvme),笔者看了半天,发现跟 SPDK 本质上是一回事,只是去除了 DPDK 的依赖,在片子里重复了 SPDK Polling 的作用。

vol66-1

 

  • Improving Performance of Directory Operations in Gluster

介绍了 GlusterFS 利用 MetadataCache 来加速大目录下的遍历操作性能,主要缓存了 inode,xattr 和 stat 信息。

vol66-2 vol66-3