时序数据库的 LSM 树介绍

发布于:2025-08-29 ⋅ 阅读:(21) ⋅ 点赞:(0)

好的,我们来详细地介绍一下(Log-Structured Merge-Tree)。这是一个在现代数据库和存储系统中极其重要的数据结构,尤其擅长处理海量的写操作。

一、LSM 树是什么?

LSM 树(Log-Structured Merge-Tree)是一种为写操作高度优化的数据结构。它的核心思想是将大量的随机写操作在内存中转换为顺序写操作(通常是追加写),然后通过后台进程将多个小文件有序地合并成大文件,从而保证查询效率。

它并非一个传统意义上的“树”结构(如B+树),而更像是一种数据组织和处理的策略

二、为什么需要 LSM 树?—— 解决的核心问题

要理解 LSM 树的价值,我们需要先看它的对手:B+ 树

  • B+ 树的写放大问题:B+ 树是一种“原地更新”的数据结构。即使只更新一个字节,也可能导致整个页(Page)的拆分、合并和重写,并需要立即写回磁盘。这会产生大量的随机 I/O。在机械硬盘(HDD)上,随机 I/O 的性能远低于顺序 I/O。
  • 磁盘的物理特性:对于 SSD,虽然随机读性能很好,但频繁的随机写会极大地磨损闪存单元,缩短其寿命

LSM 树的设计完美地避开了这些问题:

  1. 将随机写转换为顺序写:通过先在内存中缓冲写入,然后批量、顺序地刷到磁盘上。
  2. 延迟且批量的数据合并:在后台进行合并操作,避免了每次写入都直接操作磁盘数据的开销。

三、LSM 树的核心架构与工作流程

一个典型的 LSM 树实现包含多个层级(通常是内存和多个磁盘文件层级)。其工作流程可以概括为以下三步:

1. 写入步骤 (Write Path)

a. 写入内存缓冲区 (MemTable)

  • 所有新的写入(增、删、改)首先被追加到一个内存中的数据结构,称为 MemTable
  • MemTable 通常使用跳表(SkipList)平衡二叉搜索树来实现,以保证内部数据的有序性(按 Key 排序)。
  • 因为这个操作只在内存中进行,所以速度非常快。

b. 刷写到磁盘 (Immutable MemTable -> SSTable)

  • 当 MemTable 的大小达到一定阈值时,它会变为只读状态(Immutable MemTable)
  • 系统会立即创建一个新的 MemTable 来接收后续的写操作。
  • 后台线程将只读的 MemTable顺序地、批量地写入磁盘,形成一个文件。这个文件被称为 SSTable (Sorted String Table)
  • SSTable 的特点是:内部的数据是按 Key 排序的,并且是不可变的(Immutable)。一旦写入,就不再修改。

注意:删除(Delete)操作在 LSM 树中通常被处理为一种特殊的写入,即写入一个名为墓碑(Tombstone) 的特殊标记。真正的数据删除发生在后续的合并阶段。

2. 读取步骤 (Read Path)

读取操作需要从新到旧、从上到下地查找数据:

  1. 首先查询 MemTable
  2. 如果没找到,再查询 Immutable MemTable(如果有的话)
  3. 如果还没找到,则开始按从新到旧的顺序查询磁盘上的 SSTable 文件(L0 -> L1 -> L2 …)

因为 SSTable 文件有多个,并且每个文件内部有序但文件之间可能存在Key范围重叠,所以直接遍历所有文件效率极低。为了解决这个问题,LSM 树采用了两种优化:

  • 布隆过滤器 (Bloom Filter):为每个 SSTable 维护一个布隆过滤器。它是一种概率型数据结构,可以快速判断一个 Key 肯定不存在于可能存在于 该 SSTable 中。在查询磁盘文件前,先用布隆过滤器过滤掉那些肯定不包含该 Key 的文件,极大减少了需要访问的文件数量。
  • 索引 (Index):在 SSTable 内部,通常会有稀疏索引(Sparse Index)来快速定位数据块的位置。
3. 后台压缩与合并 (Compaction)

这是 LSM 树的“Merge”部分,是其设计的精髓。随着时间推移,磁盘上会积累大量 SSTable 文件(尤其是 L0 层),这会导致读性能下降(需要查更多文件)。Compaction 就是一个后台进程,负责:

  • 选择多个 SSTable 文件(通常是相邻层级中Key范围有重叠的文件)。
  • 将它们多路归并排序,合并成一个新的、更大的、有序的 SSTable 文件。
  • 删除重复的数据:只保留最新版本的数据。
  • 处理删除操作:当合并时遇到一个 Key 的墓碑标记和旧数据时,会将它们都丢弃,从而实现真正的物理删除。
  • 将新生成的文件放入更高的层级

常见的合并策略有:

  • Size-Tiered Compaction:将大小相近的 SSTable 合并成一个更大的文件。简单但可能临时需要双倍磁盘空间。
  • Leveled Compaction(更常见):将数据分成多个层级(L0, L1, L2…)。除 L0 外,每一层内的 SSTable 都是全局有序且Key范围不重叠的。L1 及以下层级的合并是取一个文件与下一层级有重叠的文件进行合并。这种方式读性能更好,但写放大稍高。

四、LSM 树的关键特性与深入探讨

1. 层级的组织 (Leveling)

大多数现代 LSM 树(如 RocksDB 所使用的)采用分层组织,通常称为 Leveled LSM-Tree

  • L0 层 (Level 0):直接从 MemTable 刷写而来。由于来自不同的 MemTable,L0 层的 SSTable 之间的 Key 范围是可能重叠的。因此,读取时必须检查每一个 L0 的文件。
  • L1 及更高层 (Level 1+):这些层级是通过 Compaction 生成的。在每一层内部,所有 SSTable 的 Key 范围都是全局有序且不重叠的。例如,L1 层可能有 10 个文件,每个文件负责一段连续的 Key 范围。这使得在读取时,每一层最多只需要查找一个 SSTable 文件,大大加速了读操作。

这种层级结构在读写之间取得了更好的平衡。

2. 写放大 (Write Amplification)

这是 LSM 树的一个主要批评点。写放大指的是实际写入磁盘的数据量远大于应用程序要求写入的数据量。

  • 原因:一个 KV 条目最初被写入 L0。随后,它可能会在 Compaction 过程中被多次重写:从 L0 到 L1,从 L1 到 L2,依此类推。
  • 影响
    • 消耗磁盘带宽:宝贵的 I/O 资源被用于后台压缩而不是处理用户请求。
    • 缩短 SSD 寿命:SSD 的闪存单元有写入次数限制,写放大会加速其磨损。
  • 权衡:LSM 树通过牺牲写放大来换取极高的写入吞吐量更长的磁盘寿命(因为将随机写转换为了顺序写)。这是一个典型的工程权衡。
3. 读放大 (Read Amplification)

读放大指的是为了查询一个 Key,实际需要读取的数据量远大于最终返回的数据量。

  • 原因
    1. 层级读取:需要检查 MemTable、Immutable MemTable 以及多个层级的 SSTable。
    2. SSTable 内部:即使使用索引,也需要先读索引块,再读数据块。
  • 优化:布隆过滤器是解决读放大的关键武器,它有效地避免了不必要的 SSTable 文件访问。
4. 空间放大 (Space Amplification)

空间放大指的是存储的数据量大于实际有效的数据量。

  • 原因
    1. 多版本数据:在 Compaction 发生之前,同一个 Key 的多个版本会同时存在于不同的 SSTable 中。
    2. 墓碑标记:已删除的数据需要等待 Compaction 后才会被真正清除,在此之前墓碑标记会一直占用空间。

五、LSM 树的优缺点总结

方面 优点 缺点
写入性能 极高。将随机写转换为顺序写,吞吐量巨大。 -
读取性能 点查(Point Query)在 Key 存在时表现良好。 点查(Key 不存在)和范围查询(Range Query)可能较慢,存在读放大
磁盘 I/O 充分利用了顺序 I/O 的高带宽,对 HDD 和 SSD 都友好。 后台 Compaction 会消耗大量 I/O 带宽,可能影响前台读写性能(写停顿)。
空间效率 - 写放大空间放大较高,需要更多磁盘空间。
复杂度 - 实现非常复杂,涉及 MemTable、SSTable、布隆过滤器、Compaction 策略等多个组件。

六、LSM 树的实际应用

LSM 树是许多著名分布式系统和数据库的基石:

  1. RocksDB / LevelDB:Facebook(Meta)开源的嵌入式存储引擎,是 LSM 树的经典实现。它是许多上层系统的基础。
  2. Apache Cassandra:宽列数据库,使用 LSM 树作为其核心存储结构。
  3. Google Bigtable:开创性的分布式数据库,其 SSTable 概念是 LSM 树的核心组成部分。
  4. HBase:Bigtable 的开源实现,同样使用 LSM 树。
  5. InfluxDB:专门处理时间序列数据的数据库,利用 LSM 树高效处理海量时间戳数据的写入。
  6. CockroachDB / TiDB:新一代的分布式 NewSQL 数据库,其底层存储(TiKV)也基于 RocksDB(即 LSM 树)。

七、LSM 树 vs. B+ 树

这是一个常见的面试题和设计选型问题。下表清晰地对比了二者的差异:

特性 LSM 树 B+ 树
写入模式 追加写(顺序 I/O) 原地更新(随机 I/O)
写入吞吐量 非常高 相对较低
读取延迟 可能较高(需要检查多层) 低且稳定(通常只需 1-3 次磁盘访问)
读取类型 点查优秀,范围查需优化 点查和范围查都非常高效
写放大 (主要来自 Compaction) 低(但可能产生页分裂的写放大)
读放大
空间放大 高(多版本数据和墓碑)
磁盘空间 需要更多空间 空间利用率更高
后台影响 Compaction 可能引起写停顿 影响较小
典型应用 写多读少、吞吐量优先的场景(日志、监控、消息队列) 读多写少、要求低延迟读写的场景(OLTP 关系型数据库)

结论

LSM 树是一种以空间换时间、以后台计算换前台响应的杰出工程设计。它通过接受更高的写放大和读放大,换取了无与伦比的写入吞吐量,使其成为处理现代海量数据写入场景的首选存储结构。理解 LSM 树的工作原理和权衡,对于数据库内核开发、基础设施选型和系统性能优化都至关重要。


网站公告

今日签到

点亮在社区的每一天
去签到