SAM的火爆也带来了一项新的任务:Promptable Segmentation,并且作者在文中对比了交互式分割Interactive Segmentation,并且在训练过程中也参考了交互式分割的训练方法,那么可提示分割与交互式分割有什么区别?
个人观点
个人感觉可提示分割可以归于更优的交互式分割,因为可以通过点、框、文本等与SAM交互并得到分割结果,具体与SAM出现之前的传统可交互式分割对比,确实有一定区别,以SAM中的概念总结如下:
- 能否通过单个点给出意义明确的mask
- 通用性
- 可组合型
具体展开如下
一、任务目标与核心逻辑
提示分割(Promptable Segmentation)
- 目标:给定任意形式的分割提示(如单点、框、文本、掩码等),模型需直接返回至少一个有效的分割掩码,即使提示存在歧义(如单点可能对应多个对象)。
- 核心逻辑:通过单次提示生成合理掩码,强调零样本泛化能力,即通过提示工程适配未见过的任务和数据分布(如用目标检测框作为提示实现实例分割)。
- 典型场景:自动数据集标注、与其他模型组合处理复杂任务(如文本+点提示分割特定对象)。
交互式分割(Interactive Segmentation)
- 目标:通过用户多次交互(如反复点击前景/背景点、调整边界)逐步修正掩码,最终得到高精度分割结果。
- 核心逻辑:依赖用户反馈迭代优化,目标是通过多轮交互达到接近人工标注的精度,而非单次提示的泛化性。
- 典型场景:人工辅助的精细分割(如医学图像标注),需用户介入修正模糊或复杂区域。
二、模型设计与能力
提示分割模型(如SAM)
- 多提示支持:兼容稀疏提示(点、框、文本)和密集提示(掩码),通过提示编码器统一处理不同模态。
- 歧义处理:设计为输出多个掩码(默认3个),通过IoU评分排序,解决单提示多对象问题(如点在衬衫上同时返回衬衫和人物掩码)。
- 效率优化:图像编码器仅需计算一次/图像,提示编码器和解码器实时运行(~50ms/提示),支持快速批量处理。
- 零样本迁移:通过预训练在大规模数据(SA-1B)上学习通用分割能力,无需针对新任务微调,直接通过提示适配(如边缘检测、对象Proposal生成)。
交互式分割模型
- 交互依赖:依赖用户输入的迭代修正(如RITM、FocalClick等模型需多轮点输入),模型设计聚焦于逐步整合用户反馈。
- 单掩码输出:通常输出单个掩码,假设用户通过多次交互明确唯一目标,不处理歧义场景(如单点对应多个合理对象时需用户进一步澄清)。
- 精度优化:针对高IoU目标优化,适合需要极高精度的场景,但泛化性较弱(需针对特定数据集训练)。
三、数据与训练方式
提示分割的数据与训练
- 数据引擎:通过三阶段(辅助手动→半自动→全自动)生成1.1B掩码的SA-1B数据集,99.1%为模型全自动生成,覆盖海量歧义场景(如嵌套对象、部分-整体关系)。
- 训练模拟:模拟多轮提示(11轮迭代),但核心目标是让模型在任意单轮提示下生成有效掩码,而非依赖多轮修正。
- 损失函数:结合焦点损失和骰子损失,优化掩码边界和类别平衡,同时通过最小损失反向传播处理多掩码输出。
交互式分割的数据与训练
- 数据标注:依赖人工标注的交互数据(如COCO、LVIS数据集的点/框标注),数据规模较小,聚焦明确目标的交互流程。
- 训练目标:优化多轮交互后的最终精度(如平均点击次数到达到90% IoU),而非单次提示的有效性。
四、核心区别总结
维度 | 提示分割(Promptable Segmentation) | 交互式分割(Interactive Segmentation) |
---|---|---|
核心目标 | 单次提示生成有效掩码,支持零样本泛化(任意任务/数据分布) | 多轮交互修正掩码,追求高精度(依赖用户反馈) |
提示次数 | 单次为主(支持多提示组合,但无需迭代) | 多次(依赖用户逐步输入前景/背景点、边界调整等) |
歧义处理 | 输出多个掩码,自动排序(如3个掩码+IoU评分) | 假设用户通过交互消除歧义,输出单个掩码 |
模型能力 | 通用分割基础模型,可组合到更大系统(如文本+检测框→实例分割) | 专用模型,优化特定交互流程(如点点击效率) |
数据依赖 | 超大规模自动生成数据集(SA-1B,1.1B掩码),覆盖海量歧义场景 | 人工标注的交互数据集(如COCO的点标注),规模较小(万级掩码) |
典型应用 | 自动标注、零样本任务(如文本到掩码、边缘检测) | 人工辅助精细分割(医学影像、复杂场景手动修正) |
效率 | 实时处理(图像编码一次,提示解码50ms/次),适合批量自动化 | 交互延迟敏感(需等待用户输入),适合人工介入场景 |
五、总结
提示分割是**“一次提示,通用分割”,聚焦模型的泛化性和组合能力,成为计算机视觉的基础模型;而交互式分割是“多次交互,精细修正”**,专注于特定场景下的高精度分割。两者互补,前者推动自动化和零样本学习,后者支持人工主导的精细操作。论文的核心贡献之一是通过提示分割将分割任务提升到基础模型范畴,开启了“分割一切”的零样本时代。