高效管理海量数据!忆联SSD为分布式块存储提供极致性能
2023-10-17 14:11:05爱云资讯阅读量:1,049
近年来,为满足大规模的存储应用需求,分布式存储成为云环境下存储底座构建的重要选择,相较于传统集中式存储方案的可靠性、安全性以及数据利用率较低,分布式存储具有易扩展、高性能、高性价比、支持分级存储、多副本一致性及存储系统标准化等优势。
块存储作为分布式存储的一部分,主要为计算集群虚拟机、容器提供弹性卷服务,而弹性卷 EVS 则是当前云业务平台最核心的存储服务,对存储性能要求极高,基于此,各大云厂商基本采用全闪化形态部署。
Ceph 则是当前业界应用最广泛的开源分布式存储软件,凭借高扩展性、高性能、高可靠等特点,同时支持块存储、文件存储及对象存储接口,已成熟应用于云计算的 IAAS 平台。为更好地助力分布式块存储系统性能及可靠性的提升,忆联在 Ceph 平台下开展实测,本文为此次的测试结论。
一、Ceph 简介
Ceph 是一个统一的分布式存储系统,可提供较好性能、可靠性和扩展性,是面向云计算领域重要的底层存储系统,已在国内运营商、政府、金融、互联网等多个行业落地应用。
图 1:Ceph 技术架构图
Ceph 主要分为应用接口层、存储基础接口层、存储对象层。接口层主要负责客户端访问,分为本地语言绑定接口、块存储设备接口和文件系统接口,展现了 Ceph 统一性。
在 Ceph 块存储系统中,数据以块的形式存在卷里,块为应用程序提供大存储容量,可靠性和性能都更高,卷可映射到操作系统中,由文件系统层控制。Ceph 块存储系统引入的 RBD(Ceph 块设备)协议为客户端提供了高可靠、高性能、分布式的块存储,同时 RBD 也支持其他的企业级特性,例如完整和增量式快照,精简的配置,写时复制( copy-on-write)式克隆,以及全内存式缓存等,从而大大提高了系统的性能。
图 2:Ceph 块存储组件
二、忆联 Ceph 存储方案验证
1.验证环境
本次验证硬件配置
1.2本次验证软件配置
1.3本次验证组网规划
图 3:Ceph 组网规划架构图
2、验证方法
步骤 1:创建 RBD pool 和 RBD 卷。配置参数 osd_pool_default_size 确定 RBD Pool 池的副本数,2 表示两幅本,3 表示三副本,根据实际副本数需求,将该配置项添加到 ceph.conf 中即可。另外根据规划,需要创建 60 个大小为 100GiB 的 RBD 卷进行 IO 测试。
步骤 2:下发 IO 测试前,需对服务器和客户端的 IO、CPU、网络进行监控,每 2 秒采集一次数据。
步骤 3:在 6 个客户端上同时对 60 个 RBD 卷下发 IO,每个客户端均需绑核,即每个 fio 绑定不同 cpu 核。
步骤 4:完成 IO 测试后,需关闭服务端和客户端的 IO、CPU、网络进行监控。
步骤 5:测试完成后,需汇总所有客户端 fio 的 BW、IOPS、平均时延,汇总对应的监控数据。对于 BW 和 IOPS,累加各 FIO 对应结果即可;对于平均时延,累加之后需求平均值。
3、验证结果
本次在 Ceph 场景下验证结果如下:
忆联 UH8 系 SSD 在随机读及顺序读下的表现。
图 4:Ceph 场景下忆联 UH8 系 SSD 读性能
从图 4 可以看出,在 Ceph 分布式存储系统下,不论是二副本还是三副本,忆联 UH8 系 SSD 的读性能基本持平。在时延方面,二副本与三副本趋势基本一致,1QD 至 32QD 间较为稳定,在 32QD 后时延明显增加。
忆联 UH8 系 SSD 在随机写及顺序写下的表现。
图 5:Ceph 场景下忆联 UH8 系 SSD 写性能
如图 5 所示,不论是在随机写还是在顺序写业务下,二副本写性能远高于三副本性能,主要是由于副本复制带来的网络及存储开销,造成三副本写带宽及写 IOPS 下降明显。在总体时延表现上,二副本明显优于三副本。在时延变化趋势上,二副本与三副本基本一致,皆在 32QD 后有比较显著的上升。
忆联 UH8 系 SSD 在混合读写场景下的表现
图 6:Ceph 场景下忆联 UH8 系 SSD 混合读写性能
从图 6 可以看出,在 4K 7:3 混合读写业务场景下,从 16QD 起,二副本 IOPS 性能优于三副本。在时延整体表现上,二副本低于三副本,但在时延变化趋势上,二副本与三副本基本一致,时延从 32QD 起,明显上升。
小结: 从 Ceph 读、写、混合读写业务场景的实测数据中,可以看到忆联 SSD 整体表现优秀,可为 Ceph 环境提供极致存储性能。在时延上,忆联 SSD 在 32QD 及以下场景中,表现亮眼,可获得更佳的时延体验。
智能多流降 WA,有效提升 SSD 寿命
为更好解决读写机制带来的写放大而造成的 SSD 性能损耗及使用寿命缩短,忆联推出 SSD 的智能多流特性,通过智能冷热数据分类算法,有效提高 GC(垃圾回收)时的效率,减少写放大,提升 SSD 性能。
图 7: Ceph 场景下智能多流特性测试
在 Ceph 方案中,基于标准 JESD 219 业务模型,针对 SSD 分别开启、关闭智能多流进行写放大测试,通过图 7 对比验证结果可以看到忆联智能多流(IMS)开启后,SSD 写放大降低 20%+,极大提升了 SSD 寿命。
本次验证证明了忆联 SSD 在 Ceph 分布式存储系统中的稳定性能,可有效支撑 Ceph 的存储需求,为 Ceph 提供始终如一的高性能,成为软件定义存储解决方案最优的选择。同时,忆联 SSD 独有的智能多流技术可降低分布式存储场景下 SSD 写放大,提升 SSD 寿命,帮助用户减少总体 TCO。对于 Ceph 分布式存储系统而言,忆联 SSD 是一个可真正做到高性能、高可靠、低成本的存储解决方案。
相关文章
- DOIT“2024年度存储风云榜”揭晓,宏杉科技斩获“企业级云基础架构创新奖”
- 海康存储车规级eMMC获汽车电子核心体系双认证
- 从富士通到RAMXEED,以全新一代FeRAM迎接边缘智能高可靠性无延迟数据存储需求
- AI创新指引,戴尔科技非结构化存储及数据管理迎来新升级
- 数据存储的新纪元——奥睿科Data Matrix mini 混元存储系列震撼发布
- 讯飞星火与华为数据存储强强联手,“以存强算” 助力AI集群算力利用率飙升30%
- Lexar雷克沙ARES SSD:4TB大容量,高性能存储新领袖
- 一加 13 官宣首批搭载高通骁龙 8 至尊版,提供同档唯一 24GB+1TB 存储组合
- 铁威马D8 Hybrid硬盘柜:冷热数据存储的完美解决方案
- 铁威马九款新品NAS齐发,F8 SSD Plus成旅行存储新宠
- 铁威马NAS新品上市,F8 SSD Plus:假期出行存储神器
- AI PC催生存储新需求 忆联发布消费级固态硬盘AM6C1
- 华为云空间全新升级:带来持续安全的高效云存储
- 华为云空间全新升级,满足用户数据安全存储的多样化需求
- 华为发布OceanStor Pacific 9928全闪分布式存储新品,重塑行业标杆
- 华为发布新一代OceanStor Dorado全闪存存储,加速企业生产核心业务步入AI时代