AnyAnomaly: Zero-Shot Customizable Video Anomaly Detection with LVLM
延世大学,首尔,韩国
arxiv’25
速览
动机
现有的 VAD 模型依赖于学习到的正常模式,这使得它们难以适用于多样化的环境。
方法
提出了一种可定制视频异常检测(Customizable Video Anomaly Detection, C-VAD)技术以及 AnyAnomaly 模型。C-VAD 将用户定义的文本视为异常事件,并检测视频中包含指定事件的帧。同时构建了C-VAD数据集,这个数据集是ShanghaiTech和Avenue的变种。
关键帧选择模块:使用图像和文本的相似度选出关键帧,然后将整个片段划分为4组,从每组内选择与关键帧序号相同的帧
上下文生成:①基于WinCLIP的注意力机制,将图像切分为多个窗口,然后每个窗口与文本计算相似度,根据相似度来mask无关的;②网格图像生成,将每帧切成网格,然后将每帧对应的网格的同一位置进行拼接。注意:两种上下文的切分都有小中大三种尺度。
异常检测:设计了一个提示词,包括任务、考虑因素和输出。时间上下文我是以行 1 列 1 → 行 1 列 2 → 行 2 列 1 → 行 2 列 2形式给出的。
实验
在ShanghaiTech、Avenue和UBnormal数据集上进行实验,并且还对自己的C-VAD数据集也跑了一下。评估指标使用的是微平均受试者工作特征曲线(micro-averaged area under the receiver operating characteristic curve, micro AUROC).
摘要
视频异常检测(Video Anomaly Detection, VAD)在计算机视觉中的视频分析和监控领域至关重要。然而,现有的 VAD 模型依赖于学习到的正常模式,这使得它们难以适用于多样化的环境。因此,用户需要针对新的环境重新训练模型或开发独立的 AI 模型,而这需要机器学习专业知识、高性能硬件以及大量数据收集,限制了 VAD 在实际应用中的可用性。
为了解决这些挑战,本研究提出了一种可定制视频异常检测(Customizable Video Anomaly Detection, C-VAD)技术以及 AnyAnomaly 模型。C-VAD 将用户定义的文本视为异常事件,并检测视频中包含指定事件的帧。我们采用了一种基于上下文感知的视觉问答(Visual Question Answering, VQA)方法来实现 AnyAnomaly,而无需对大型视觉语言模型进行微调。
为了验证所提出模型的有效性,我们构建了 C-VAD 数据集,并证明了 AnyAnomaly 的优越性。此外,我们的方法在 VAD 基准数据集上表现出竞争力,在 UBnormal 数据集上取得了最先进(state-of-the-art, SOTA)的检测效果,并在所有数据集上展现了优越的泛化能力,优于其他方法。
我们的代码可在 GitHub 获取。
1. 引言
视频异常检测(Video Anomaly Detection, VAD)的目标是在视频流中检测异常事件。异常事件包括对象执行与环境不符的动作(例如翻越围栏)或具有异常外观的对象(例如在人行道上的自行车)。然而,异常事件通常罕见且多样化,使得构建大规模的 VAD 数据集变得困难。因此,VAD 被认为是一个极具挑战性的问题。
为了解决这些限制,先前的研究主要采用单类分类(One-Class Classification, OCC)方法,该方法仅从正常数据中学习。在 OCC 方法中,模型学习正常模式,并将偏离这些模式的情况分类为异常。典型的基于 OCC 的 VAD 方法包括分类方法 [14, 27, 35],距离度量方法 [2, 24, 26],以及预测方法 [10, 15, 33],所有这些方法都在 VAD 任务中表现出色。
然而,由于正常和异常类别的定义可能因环境而异,OCC 方法无法始终保证泛化性能。例如,如图 1 左侧所示,在校园环境中训练的模型会学习“人”的特征作为正常模式,并将“汽车”归类为异常。然而,当该模型应用于道路环境时,仍然会将“汽车”检测为异常,从而增加误报数量。因此,OCC 方法需要为每个新环境重新训练正常模式,这需要额外的成本,例如数据收集、专家干预和高性能设备。由于这些限制,将 VAD 模型应用于现实世界场景仍然面临挑战。
为了解决这一问题,我们提出了一种新的技术,称为可定制视频异常检测(Customizable Video Anomaly Detection, C-VAD)。C-VAD 将用户定义的文本视为异常事件,并检测视频中包含这些事件的帧。例如,在校园视频中,“汽车”可以被设定为异常事件,而在道路视频中,“行人”可以被设定为异常事件。
与现有的 VAD 模型不同,后者基于学习到的正常模式来判断异常,C-VAD 根据提供的文本动态检测异常模式。这意味着,随着视觉文本分析的泛化能力提升,异常检测在各种环境中的有效性也会提高。因此,我们引入了一种具备零样本检测能力的 C-VAD 方法(如图 1 右侧所示),并提出了 AnyAnomaly 模型,该模型可以在各种环境中进行 VAD,而无需额外训练。
实现零样本 C-VAD 的有效方法是利用大型视觉语言模型(Large Vision Language Models, LVLMs)。近年来,LVLMs 在视觉文本分析方面表现出卓越的泛化能力。通过利用这一能力,C-VAD 可以在各种环境下高效运行。最直观的方法是在每一帧上执行视觉问答(Visual Question Answering, VQA)以估算异常分数。例如,可以向模型提供以下提示词(prompt):
“返回一个介于 0(否)到 1(是)之间的数值,指示输入图像与用户提供的文本的匹配程度。”
这一方法被用作基线模型。然而,通过实验,我们观察到基线模型存在以下局限性:
- 由于 LVLMs 的计算开销较大,推理延迟较高。
- 由于监控视频的特性(如前景-背景不平衡和目标拥挤),难以分析特定目标。
- 由于无法利用时间信息,难以检测涉及动作的异常事件。
为了解决这些局限性,我们设计了 AnyAnomaly 模型,其结构如图 2 所示。
首先,为了降低延迟,我们采用了基于片段(segment-level)的处理方法,将连续的帧分组为一个片段进行处理。为此,我们引入了关键帧选择模块(Key Frames Selection Module, KSM),用于选择代表该片段的关键帧,并在片段级别执行 VQA。
其次,我们不仅仅进行简单的图像-文本匹配,而是引入了基于上下文感知的 VQA 方法,以实现对场景的更深入理解。为此,我们额外利用了两种信息:位置上下文(Position Context, P C PC PC)和时间上下文(Temporal Context, T C TC TC)。其中, P C PC PC 通过强调帧中的重要位置,提高 LVLM 对目标的分析能力; T C TC TC 通过将场景的时间变化结构化为网格格式,从而增强 LVLM 的动作分析能力。
值得注意的是,所提出的 KSM 和上下文生成模块均无需训练,即可运行,使得 C-VAD 的应用更加便捷,无需额外的数据训练。
为了评估 C-VAD 的性能,我们基于异常类型对现有的 VAD 基准数据集进行了分类,以构建 C-VAD 数据集。通过这一过程,我们证明了 AnyAnomaly 的优越性。
尽管 AnyAnomaly 是一种零样本方法,但在 VAD 数据集上表现出与传统基于 OCC 的 VAD 模型相比更具竞争力的性能。它在 UBnormal 数据集上达到了最先进(state-of-the-art, SOTA)的检测效果,并在所有数据集上展现了卓越的泛化能力。所提出的方法有望成为在现实世界中部署 VAD 技术的有效解决方案。
本研究的贡献如下:
- 我们提出了 C-VAD 技术,以实现多种环境下的异常检测。据我们所知,这是首个基于用户定义异常进行 VAD 的方法。
- 我们开发了 AnyAnomaly 模型,该模型通过上下文感知 VQA 来有效执行 C-VAD。
- 为了评估 C-VAD 的性能,我们构建了新的 C-VAD 数据集,并通过实验验证了 AnyAnomaly 的优越性。
- AnyAnomaly 在 UBnormal 数据集上达到了 SOTA 性能,并在所有数据集上展现出优越的泛化能力,优于其他方法。
250309:可以学习一个写作思路:先说挑战 —》然后引出目前什么方法可以解决这些挑战(也就是你想要diss的范式) ——》再说这些方法的不足 ——》然后引出自己的方法。
引入自己方法这里可以:先说最直观的做法是。。。——》这一方法用作我们的baseline ——》但是我们观察到这个做法有局限性 ——》为了解决这些局限性,我们提出。。。
2. 相关工作
视频异常检测
大多数 VAD 模型采用单类分类(One-Class Classification, OCC)方法,通过学习正常模式来检测异常。其中,基于预测的方法通过训练模型来预测未来或过去的帧,假设异常帧的预测误差更大。例如,Liu [15] 提出了一种方法,利用 FlowNet [11] 和 GANs [20] 来预测第 t + 1 t+1 t+1 帧,给定 t t t 帧的输入。Yang [33] 提出了一种方法,从 t t t 帧输入中选择关键帧,以预测整个序列。
然而,由于正常模式和异常模式的定义可能因环境而异,依赖于学习正常模式的 OCC 方法在泛化性能上存在局限性。为了解决这一问题,近期研究探索了跨域视频异常检测(Cross-Domain VAD, xVAD)。其中,zxVAD [3] 通过在辅助数据集中使用 CutMix 技术合成异常模式,提高了模型对新环境的适应性。
然而,这些方法依赖于固定的数据变换,使其难以全面捕捉现实场景中可能出现的多样化异常模式。因此,我们提出了一种新的 VAD 方法,利用文本信息来动态检测不同环境下变化的异常模式。
250309:相关工作这里只提了单类和跨域,并没有提及弱监督的方法,难道说自己想要diss哪类方法,就只需要说哪一类吗?
大型视觉语言模型(LVLMs)
大型语言模型(Large Language Models, LLMs)最初主要用于自然语言处理(NLP);然而,近年来,它们已被应用于多模态任务,例如图像字幕生成和视觉问答(VQA)。例如,MiniGPT-4 [38] 通过将预训练的视觉编码器连接到 Vicuna [7] 模型,并通过线性层进行融合,以处理多模态输入。
最近的 LVLMs 采用了新颖的视觉编码技术,以更好地理解图像。Chat-UniVi [13] 通过为图像生成动态标记(tokens),减少冗余信息,并有效提取关键视觉特征。该模型能够在不同分辨率下应用动态标记,从而实现灵活的分析。MiniCPM-V [34] 根据图像分辨率应用最佳分区技术,并为每个图像片段生成优化的标记,从而提高内存效率。
然而,尽管 LVLMs 取得了重大进展,但它们通常是为通用任务而训练的,因此直接应用于 VAD 仍然具有挑战性。为了有效处理 VAD 任务,必须考虑监控视频的特性,并利用时间信息。因此,我们提出了一种无需训练的方法,以最小化 LVLMs 与 VAD 任务之间的领域差距。
3. 方法
3.1. 总览
图 2 展示了 AnyAnomaly 模型的结构,该模型执行基于上下文感知的视觉问答(VQA)。输入为一个视频片段 S = { s 0 , … , s N − 1 } S = \{s_0, \dots, s_{N-1}\} S={s0,…,sN−1},其中包含 N N N 帧,且 N N N 是 4 的倍数。关键帧选择模块(Key Frame Selection Module, KSM)从 S S S 中选取关键帧 K = { k 0 , … , k 3 } K = \{k_0, \dots, k_3\} K={k0,…,k3}。在选定的关键帧中,代表性帧 k ^ \hat{k} k^ 用于生成位置上下文(Position Context, P C PC PC),而 K K K 用于创建时间上下文(Temporal Context, T C TC TC)。
随后, k ^ \hat{k} k^、 P C PC PC 和 T C TC TC 作为 LVLM 的图像输入,而用户提供的文本 X X X 与提示词(prompt)结合后作为文本输入。最后,LVLM 的响应结果被整合,以计算异常分数。
250311:这个画图可以学习一下,他其实用了3次LVLM,但是乍一看好像就用了1次,完美的避开了“调用次数多”这个缺陷。
3.2. 关键帧选择模块
图 3a 展示了关键帧选择模块(Key Frames Selection Module, KSM),这是片段级方法的关键组成部分。为此,我们从片段中选择四个代表性的帧作为 K K K,并利用 CLIP [22] 模型,该模型经过训练以匹配图像和文本。
具体而言, S S S 和 X X X 分别作为输入提供给图像编码器 E I E_I EI 和文本编码器 E T E_T ET,相似性通过 N N N 个图像和文本嵌入的点积计算。具有最高相似性的帧被选为代表性帧 k ^ \hat{k} k^:
k ^ = arg max s i ∈ S ( E I ( s i ) ⋅ E T ( X ) ) (1) \hat{k} = \arg\max_{s_i \in S} (E_I(s_i) \cdot E_T(X)) \tag{1} k^=argsi∈Smax(EI(si)⋅ET(X))(1)
代表性帧 k ^ \hat{k} k^ 的索引 i ^ \hat{i} i^ 被用于选择其他关键帧。我们将片段划分为四个大小相等的组,并从每个组中选择 i ^ m o d N 4 \hat{i} \mod \frac{N}{4} i^mod4N 位置的帧。例如,当 N = 8 N = 8 N=8 且 i ^ = 4 \hat{i} = 4 i^=4 时,每个组中选择第 0 帧,最终集合为 K = { s 0 , s 2 , s 4 , s 6 } K = \{s_0, s_2, s_4, s_6\} K={s0,s2,s4,s6}。这一过程定义如下:
k i = s x , x = ( i × N 4 ) + ( i ^ m o d N 4 ) (2) k_i = s_x, \quad x = \left(i \times \frac{N}{4} \right) + \left(\hat{i} \mod \frac{N}{4} \right) \tag{2} ki=sx,x=(i×4N)+(i^mod4N)(2)
利用 KSM, K K K 在生成时同时考虑了文本对齐和时间均匀性,从而实现了有效的上下文生成。关键帧选择方法的对比分析将在 4.5 节中详细讨论。
250309:不是吧,就算个相似性就是选择关键帧了?是不是有点太简单了。。。
3.3. 上下文生成
P C PC PC 和 T C TC TC 是基于上下文感知的 VQA 的关键要素,它们作为补充输入图像的附加信息。其中, P C PC PC 通过 WinCLIP 注意力(WinCLIP-based Attention, WA)提升 LVLM 对目标的分析能力,而 T C TC TC 通过网格图像生成(Grid Image Generation, GIG)增强 LVLM 对动作的分析能力。
基于 WinCLIP 的注意力机制
图 3b 展示了 WA 方法。我们基于 WinCLIP(由 Jeong [12] 提出)强调 k ^ \hat{k} k^ 处与 X X X 相关的区域。首先, k ^ \hat{k} k^ 被划分为多个窗口,并使用 E I E_I EI 计算每个窗口的独立嵌入。例如,当图像尺寸为 240 × 240 240 \times 240 240×240 时,它被划分为 25 25 25 个 48 × 48 48 \times 48 48×48 的窗口,每个窗口的嵌入被收集,以形成小尺度窗口嵌入图 W s ∈ R 25 × D W^s \in \mathbb{R}^{25 \times D} Ws∈R25×D。
通过调整窗口大小,还会生成中尺度窗口嵌入图 W m W^m Wm 和大尺度窗口嵌入图 W l W^l Wl,并计算这些嵌入图与文本嵌入 z ∈ R D z \in \mathbb{R}^{D} z∈RD 之间的相似性。
最终的相似度图 M M M 由三个尺度上的相似度平均计算得到:
M = 1 3 ( z ( W s ) T + z ( W m ) T + z ( W l ) T ) (3) M = \frac{1}{3} \left( z (W^s)^T + z (W^m)^T + z (W^l)^T \right) \tag{3} M=31(z(Ws)T+z(Wm)T+z(Wl)T)(3)
我们将 Jeong [12] 提出的模板与 X X X 结合,并通过 E T E_T ET 生成 z z z。最终,我们将 M M M 与 k ^ \hat{k} k^ 相乘,以生成 P C PC PC:
P C = f norm ( M ) ⊙ k ^ (4) PC = f_{\text{norm}}(M) \odot \hat{k} \tag{4} PC=fnorm(M)⊙k^(4)
其中, f norm f_{\text{norm}} fnorm 表示最小-最大归一化(min-max normalization), ⊙ \odot ⊙ 表示逐元素(element-wise)乘法。在计算 M M M 之后,对其进行插值和重塑,以匹配 k ^ \hat{k} k^ 的分辨率。
由于 P C PC PC 通过整合多个尺度上的相似度生成,因此对目标的大小和位置具有较强的鲁棒性,并且在包含多个目标的情况下仍能有效运行。
250309:这种注意力没见过,好像有点东西。
网格图像生成
图 3c 展示了网格图像生成(Grid Image Generation, GIG)方法,该方法包含两个阶段。在多尺度网格生成阶段, K K K 被用于在不同尺度上创建网格图像。类似于 WA 方法的过程, K K K 的每一帧被划分为多个窗口,并且位于相同位置的窗口以 2 × 2 2 \times 2 2×2 的网格格式连接,以生成单个网格图像。该过程定义如下:
g i = [ u 0 i u 1 i u 2 i u 3 i ] (5) g^i = \begin{bmatrix} u_0^i & u_1^i \\ u_2^i & u_3^i \end{bmatrix} \tag{5} gi=[u0iu2iu1iu3i](5)
其中, u j i u_j^i uji 表示从 k j k_j kj 生成的第 i i i 个窗口, g i g^i gi 表示第 i i i 个网格图像。我们定义了使用小、中、大尺度窗口生成的网格图像集合分别为 G s G^s Gs、 G m G^m Gm 和 G l G^l Gl。
在网格图像选择阶段,先前创建的集合被合并以生成 G a l l G^{all} Gall。然后,使用与 KSM 选择 k ^ \hat{k} k^ 相同的方法,从 G a l l G^{all} Gall 中选取与文本相似度最高的网格图像,以生成 T C TC TC:
G a l l = G s ∪ G m ∪ G l (6) G^{all} = G^s \cup G^m \cup G^l \tag{6} Gall=Gs∪Gm∪Gl(6)
T C = arg max g i ∈ G a l l ( E I ( g i ) ⋅ E T ( X ) ) (7) TC = \arg\max_{g^i \in G^{all}} \left( E_I(g^i) \cdot E_T(X) \right) \tag{7} TC=arggi∈Gallmax(EI(gi)⋅ET(X))(7)
通过此过程生成的 T C TC TC 反映了在相同背景下的目标运动情况,使其在动作分析方面具有优势,并且对不同目标尺寸具有较强的鲁棒性。有关 WA 和 GIG 中使用的窗口大小的分析将在 4.5 节中讨论。
250309:这里就是把4个关键帧先划分为网格,假如说是中尺度2x2:4帧的 左上拼成一个网格、右上拼成一个网格、左下拼成一个网格、右下拼成一个网格,其他尺度的也类似,然后用每个网格和文本计算相似度,最相似的那个就是TC。
3.4. 异常检测
我们没有对 LVLM 进行微调,而是提出了一种新的提示词(prompt)和上下文机制,以执行基于上下文感知的 VQA。VQA 结果被用作异常分数,从而实现无需训练的零样本异常检测。
提示词设计
详细提示词(Detailed prompt)
任务(Task): 评估给定图像中是否包含 {text},评分范围从 0 到 1。得分 1 表示 {text} 在图像中清晰可见,而得分 0 表示 {text} 完全不存在。对于中间情况,根据 {text} 的可见程度赋值介于 0 到 1 之间的分数。
考虑因素(Consideration): 关键在于 {text} 是否出现在图像中,而不是其是否是主要焦点。因此,如果 {text} 存在,即使它不是图像的主要关注点,也应赋予较高的得分,例如 1.0。
输出(Output): 以浮点数的形式提供得分,保留一位小数,并在一条简短的句子中说明得分的原因。
时间上下文提示词(Prompt for temporal context)
上下文(Context): 给定的图像表示一个序列(行 1 列 1 → 行 1 列 2 → 行 2 列 1 → 行 2 列 2),以此展示时间上的变化过程。
图 4 展示了所提出的提示词 P P P。提示词由三个主要部分组成:“任务(task)”、“考量因素(consideration)”和“输出(output)”。首先,“任务”定义了 LVLM 需要执行的操作,具体来说是评估 X X X 是否存在于图像中。其次,“考量因素”指定了评估过程中需要考虑的因素,而“输出”定义了评估结果的呈现格式。
为了利用链式思维(chain-of-thought, CoT)效应 [30],我们引导模型在返回异常分数时提供简要推理,并将分数四舍五入至小数点后一位。当使用 T C TC TC 进行 VQA 时,提示词中会在“任务”和“考量因素”之间插入额外的“上下文(context)”元素,以向 LVLM 传达 T C TC TC 的行列含义。
我们将修改后的提示词定义为 P ∗ P^* P∗。有关不同提示词的对比分析将在补充材料中提供。
异常评分
上下文信息作为图像的补充信息。然而,由于 LVLM 仅接受单张图像作为输入,同时利用原始信息和附加信息存在挑战。为了解决这一问题,我们采用了后期融合(late fusion)方法。具体而言, k ^ \hat{k} k^、 P C PC PC 和 T C TC TC 被用作 LVLM 的图像输入。LVLM 为每个输入返回一个异常分数,这三个分数被组合以计算最终的异常评分 a s c o r e ascore ascore:
a s c o r e = γ 1 ⋅ Φ LVLM ( k ^ , P ) + γ 2 ⋅ Φ LVLM ( P C , P ) + γ 3 ⋅ Φ LVLM ( T C , P ∗ ) (8) ascore = \gamma_1 \cdot \Phi_{\text{LVLM}}(\hat{k}, P) + \gamma_2 \cdot \Phi_{\text{LVLM}}(PC, P) + \gamma_3 \cdot \Phi_{\text{LVLM}}(TC, P^*) \tag{8} ascore=γ1⋅ΦLVLM(k^,P)+γ2⋅ΦLVLM(PC,P)+γ3⋅ΦLVLM(TC,P∗)(8)
其中, γ \gamma γ 是超参数,用于调整上下文信息在 a s c o r e ascore ascore 中的占比。基于超参数调整的性能对比实验将在补充材料中提供。
因此,即使异常帧 k ^ \hat{k} k^ 的评分较低,如果附加信息 P C PC PC 或 T C TC TC 具有较高的评分,最终的异常评分仍然会较高。这使得异常检测更加准确。
250309:不对劲吧,LVLM是可以多帧的。
4. 实验
4.1. 数据集
图 5 展示了 VAD 和所提出的 C-VAD 数据集的组成。在传统的 VAD 数据集中,视频并未按照异常类别进行分类。相比之下,C-VAD 数据集根据异常事件类型进行组织,视频根据是否包含特定异常被分类为正样本或负样本。这种分类方式能够精确评估针对特定类型异常(例如自行车)的检测性能。
在本研究中,我们在三个 VAD 数据集上验证了所提出方法的有效性,包括 CUHK Avenue (Ave) [16]、ShanghaiTech Campus (ShT) [18] 和 UBnormal (UB) [1],以及两个 C-VAD 数据集:Customizable-ShT (C-ShT) 和 Customizable-Ave (C-Ave)。数据集的更多细节可在补充材料中找到。
4.2. 评估标准
为了与先前的 VAD 研究保持一致,我们使用微平均受试者工作特征曲线(micro-averaged area under the receiver operating characteristic curve, micro AUROC)指标来评估所提出模型的性能。具体而言,数据集中所有帧的异常评分被汇总,并通过逐步调整异常评分的阈值来计算最终的评估结果。
4.3. 结果
表 1 和表 2 展示了 C-VAD 数据集上的评估结果。如第 1 节所述,基线方法在帧级别执行 VQA 以计算异常分数。相比基线方法,所提出的模型在 C-ShT 和 C-Ave 数据集上的性能分别提升了 9.88% 和 13.65%。具体而言,在动作类别上分别提升了 14.34% 和 8.2%,在外观类别上分别提升了 3.25% 和 21.98%。
当仅将 KSM 应用于基线方法时,执行时间随着片段长度的增加而减少,而整体性能与基线方法相似。这是因为 CLIP 能够有效地为每个片段选择代表性帧,从而弥补时间信息的损失。然而,由于 CLIP 无法充分捕获精细的时空细节,因此在某些类别上的性能明显下降。
因此,我们通过所提出的上下文信息来解决这些问题。首先,使用 P C PC PC 使得相比 KSM,性能分别提升了 5.64% 和 3.62%,这是因为 LVLM 更关注与 X X X 相关的目标分析。此外,应用 T C TC TC 后,性能相比 KSM 分别提升了 8.38% 和 14.43%,尤其是在动作类别中表现出显著的提升。这表明,利用网格图像提供的时间信息对于动作分析至关重要。
4.4. 定性分析
为了分析基于上下文感知的 VQA 的影响,我们在图 6 中展示了异常评分和输入帧的可视化结果。
当未应用 P C PC PC 时,自行车目标在画面中比其他目标更小,导致检测性能下降。一旦应用 P C PC PC,自行车区域得到增强,从而提升了 LVLM 的目标识别能力。同样地,若未使用 T C TC TC,模型会将“打斗”误判为“站立”,导致较低的检测性能。而通过 T C TC TC 提供时间信息,能够提升 LVLM 的动作识别能力。
这些结果表明,基于上下文感知的 VQA 比传统 VQA 更加有效。
4.5. 消融研究
片段长度与 FPS
表 3 展示了不同片段长度下的性能对比及帧率(FPS)。基线方法的片段长度设定为 1。实验结果表明,在片段级别计算异常分数相比基于单帧的方法表现更优。
当片段长度设定为 24 时,AUC 最高,在 C-ShT 和 C-Ave 数据集上分别达到 85.72% 和 90.27%。然而,过长的片段长度会将无关信息引入时间上下文,从而导致准确率下降。此外,在片段级别执行 VAD,相比基线方法,FPS 提高了 594%。
关键帧选择
我们从时间均匀性(temporal uniformity)和文本对齐(text alignment)两个角度对关键帧选择方法进行了消融研究。随机方法不考虑这两个因素,而基于 CLIP 的方法仅考虑文本对齐。使用 CLIP 选择关键帧后进行分组可以保证文本对齐,但无法确保时间均匀性。而在 CLIP 之后进行分组,可以使关键帧均匀分布,从而同时考虑时间均匀性和文本对齐。
如表 4 所示,同时结合这两个因素可在 C-VAD 任务中取得最佳性能,突出了时间均匀性在动作识别中的关键作用。此外,未利用上下文信息的 RD* 和 CP* 方法,其性能比随机方法更差,而随机方法本身并不考虑时间均匀性和文本对齐。这进一步说明了利用上下文信息的重要性。
250311:Gr.—>CP这里没看懂什么意思,是先分组再使用CLIP选择每个组内的关键帧吗?
窗口大小
表 5 展示了在 P C PC PC 和 T C TC TC 任务中使用不同窗口大小的实验结果。在动作类别中,C-ShT 数据集上的最佳性能出现在大窗口尺寸,而 C-Ave 数据集上的最佳性能出现在中等窗口尺寸。这表明,中等或大窗口尺寸更适合捕捉时间运动信息以及多个目标之间的交互。
在外观类别中,C-ShT 数据集的最佳性能出现在小窗口尺寸,而 C-Ave 数据集的最佳性能出现在中等窗口尺寸。这表明,合适的窗口尺寸取决于数据集中的目标大小差异。
为了提升模型的泛化性能,我们采用了一种结合所有三种窗口大小的方法,实验结果表明,这种方法能获得最佳的整体性能。
4.6. 与 SOTA 方法的对比
为了评估 AnyAnomaly 在处理多个文本输入方面的有效性,我们在 VAD 基准数据集上进行了实验。对于性能评估,数据集中的每个异常类别都被视为 X X X,并将所有计算出的分数中最大的异常分数分配给相应的片段。表 6 展示了与基于帧的 VAD 方法的性能对比。
尽管 AnyAnomaly 并未在 VAD 数据集上进行训练,但其性能与 SOTA 方法相当。值得注意的是,它在 UB 数据集上达到了新的 SOTA 性能,AUROC 为 74.5%,并在 ShT 数据集上取得了第二好的性能,AUROC 为 79.7%。这些结果强调了所提出模型的有效性,该模型利用了 LVLM 和基于上下文感知的 VQA,在无需完全监督的情况下达到了与全监督方法相当的性能。
4.7. 泛化性能对比
表 7 对 AnyAnomaly 的泛化性能进行了比较。尽管 STEAL-Net [5] 和 Jigsaw [29] 在同域测试中表现出较高的准确率,但在跨域环境下,其性能显著下降。具体而言,在 Ave 数据集上,STEAL-Net 和 Jigsaw 的性能分别从 87.1% 下降至 54.3%,以及从 92.2% 下降至 62.9%。类似地,在 ShT 数据集上,它们的性能分别从 73.7% 下降至 51.7%,以及从 84.3% 下降至 59.3%。这表明,现有的基于 OCC 的 VAD 模型容易过拟合训练数据,因此在新环境中的检测效果较差。
例如,在 Ave 数据集中,被摄目标靠近相机(“Too close”)被视为异常,而在 ShT 数据集中则被认为是正常情况。因此,在 ShT 数据集上训练的 OCC 方法难以检测此类异常。
相比之下,专为 xVAD 设计的零样本(zero-shot)和少样本(few-shot)VAD 模型比 OCC 模型表现出更好的泛化能力。然而,少样本模型高度依赖 K-shot 样本的数量,而零样本模型通常需要辅助数据集。无需训练的方法(如 ZS-CLIP 和 ZS-ImageBind)利用强大的图像理解能力,在某些 VAD 任务上优于传统模型。然而,它们的性能仍然受到领域差异的限制。
相比之下,AnyAnomaly 通过引入上下文信息有效克服了领域差距,实现了更优的性能。
5. 结论
我们提出了 AnyAnomaly,一种利用 LVLM 进行通用 VAD 的新方法。AnyAnomaly 通过结合片段级方法和基于上下文感知的 VQA,有效执行 C-VAD 任务。该设计在处理大规模视频时降低了延迟,并最小化了 LVLM 与 VAD 任务之间的领域差距。
尽管 AnyAnomaly 是一种零样本(zero-shot)方法,但在基准数据集上表现出竞争力,并在实际 VAD 任务中展现出良好的应用前景。此外,由于该方法无需训练,即可对任何视频执行异常检测,因此显著提高了 VAD 领域的可用性。我们预计 AnyAnomaly 将在 VAD 研究和实际部署中发挥重要作用。
附录
A.实验细节
A.1. 数据集详情
VAD 数据集
我们使用了 CUHK Avenue (Ave) [16]、ShanghaiTech Campus (ShT) [18] 和 UBnormal (UB) [1] 数据集。Ave 数据集包含由单个摄像机在大学校园内拍摄的视频,涵盖五种异常事件:丢纸、奔跑、跳舞、接近摄像机(Too close)和骑自行车。
ShT 是一个校园监控视频数据集,包含 13 种不同的背景场景和 11 种异常事件,例如自行车、汽车、打斗和跳跃。
UB 是一个使用 Cinema4D 软件生成的合成数据集,涵盖 29 种不同的背景场景,包括室内环境、人行道等。该数据集提供了 22 种异常事件,其中不仅包括诸如吸烟、盗窃等难以检测的事件,还包括诸如偏离车道驾驶、行人与车辆碰撞等复杂场景。
C-VAD 数据集
我们构建了 Customizable-ShT (C-ShT) 和 Customizable-Ave (C-Ave) 数据集。C-ShT 通过重新组织 ShT 的测试数据,将其划分为 11 种异常事件类别,并为每个类别分配新的标签。例如,在自行车类别中,包含自行车的视频被标记为正样本,而所有其他视频被标记为负样本。帧级标签设定为 1,仅用于正样本视频中包含自行车的帧。
C-Ave 通过重新组织 Ave 的测试数据构建,划分为 5 种异常事件类别,并采用与 C-ShT 相同的标注方法。
A.2. 实现细节
在 C-VAD 数据集的关键实验中,我们采用了高效的 Chat-UniVi [13] 7B 模型,以在性能和速度之间取得平衡。对于 VAD 数据集实验,我们使用了高效的 MiniCPM-V [34] 8B 模型,以实现最佳性能,并与当前最先进(SOTA)模型进行了对比。
用于关键帧选择和上下文生成的 CLIP 模型为 ViT-B/32。对于上下文生成,我们采用了大、中、小三种窗口尺寸,分别为 (120,120)、(80,80) 和 (48,48)。对于 C-Ave 和 Ave 数据集,大窗口尺寸设定为 (240,240)。
所有实验均在单个 NVIDIA GeForce RTX 3090 GPU 上进行。
A.3. 提示词详情
- 任务:根据0到1的评分标准,评估给定的图像是否包含{text}。1分意味着{text}在图像中明显存在,而0分意味着{text}根本不存在。在中间的情况下,根据{text}的可见程度赋予0到1之间的值。
- 输出:提供一个浮动的分数,保留一位小数,不包含任何额外的文字或解释。
- 输出:提供一个浮动的分数,保留一位小数,并简短地说明分数的理由。
- 考虑:关键在于{text}是否出现在图像中,而不是它是否是焦点。因此,如果{text}出现在图像中,即使它不是主要焦点,也可以赋予像1.0这样的较高分数。
- 上下文:给定的图像表示一个序列(从第一行第一列到第二行第一列,再到第二行第二列),展示了时间进展。
图 S1 展示了实验中使用的详细提示词。首先,我们设计了一种推理提示词(reasoning prompt),以利用链式思维(chain-of-thought, CoT)[30] 机制获取异常评分的简单推理结果。这有助于将问题拆解为多个步骤,引导模型更系统地解决复杂问题。例如,问题 “图像中是否包含跳跃动作?” 可以拆解为以下两个步骤:
- “是否有与跳跃相关的对象(例如人)?”
- “该对象是否执行了跳跃动作?”
这种方式使模型能够进行对象级的图像分析,从而提高预测的精确度。
考虑提示词(consideration prompt) 促使模型在 X X X 并非图像中心元素的情况下仍然能给予较高的异常评分。该提示词的引入旨在解决一个问题,即模型可能会仅因为 X X X 存在于图像中,就错误地分配较低的评分,而忽略其实际重要性。该提示词调优的有效性已在表 S1 中进行比较和分析。
提示词影响实验 表明,仅使用简单提示词时,LVLM 仅输出异常评分;而在评分计算过程中添加推理提示词后,模型能够进行推理分析。此外,考虑提示词促使模型更加关注所给文本内容。实验结果表明,同时使用推理提示词和考虑提示词可实现最佳性能。这表明,在 LVLM 过程中引入推理,有助于模型生成更准确的结果,并能够通过考虑提示词更精准地响应用户指令。
250311:这个考虑提示词好像挺有用的,对于这个任务来讲。
B. 附加定量评估
B.1. 超参数调优
我们调整了用于计算每个 VAD 数据集最终异常评分的三个超参数 γ 1 , γ 2 , and γ 3 \gamma_1, \gamma_2, \text{and} \ \gamma_3 γ1,γ2,and γ3。每个超参数分别控制来自帧、位置和时间上下文的异常评分的影响。
如表 S2 所示,由于对象大小和异常事件的差异,不同数据集的最优超参数值有所不同。此外,在无上下文(w/o context,即不利用上下文信息)和无调优(w/o tuning,即所有超参数设为相同值)情况下,我们观察到即使不进行超参数调优,性能仍然提高了 3.0%、2.2% 和 0.7%。
相比之下,由于超参数调优,性能差异分别为 2.9%、0.3% 和 0.7%。这表明我们提出的方法在 VAD 任务中利用上下文信息的有效性,并证明即使不进行超参数调优,该方法仍能实现较强的泛化性能。
250311:这个超参数调优感觉很水,就是根据预测值加权求和一下啊,然后就选了自己最好的。。。
B.2. 不同 LVLM 的比较
表 S3 展示了在 C-ShT 和 C-Ave 数据集上使用不同 LVLMs(大规模视觉语言模型)的实验结果。我们评估了四种 SOTA(state-of-the-art,最先进)LVLMs 的性能,包括 Chat-UniVi [13]、MiniGPT-4 [38]、MiniCPM-V [34] 和 LLAVA++ [23]。所有实验均在默认设置下进行,“Pre-trained” 指的是预训练模型权重的名称。
实验结果表明,采用 上下文感知 VQA(视觉问答) 可以提升所有 LVLMs 的性能。具体而言,使用 上下文感知 VQA 后,性能提升范围从 2.6% 到 24.8% 不等。值得注意的是,即使是 MiniCPM(在不使用上下文感知 VQA 时表现最好的模型),在引入上下文感知 VQA 后,其 C-ShT 和 C-Ave 数据集上的性能分别提高了 2.7% 和 5.4%。这一结果验证了 上下文感知 VQA 在 C-VAD(可定制视频异常检测)任务中的有效性。
此外,我们观察到 Chat-UniVi 以 6.67 FPS(帧每秒) 的速度成为最 高效 的模型,而 MiniCPM-V 在两个数据集上取得了最高性能,分别达到了 90.1% 和 91.0%。因此,正如 附录 A.1 中提到的,Chat-UniVi 被用于 C-VAD 相关实验,而 MiniCPM-V 被用于 VAD 数据集的实验。
C. 附加定性评估
C.1. 上下文互补性
在本节中,我们解释了 PC 和 TC 在上下文感知 VQA 中的互补性。图 S2 可视化了特定片段的关键帧,以及使用 WA 和 GIG 生成的 PC 和 TC 图像。我们还展示了利用这些上下文的上下文感知 VQA 结果。
在第一行,当文本输入为“bicycle”(自行车)时,PC 通过 WA 成功识别了自行车,得分为 1.0。然而,由于运动导致的时间裁剪效应,时间上下文的得分较低,仅为 0.5。在第二行,当文本输入为“jumping”(跳跃)时,WA 的注意力结果未能准确定位“跳跃”的人物。此外,由于缺乏时间信息,PC 无法识别跳跃动作,得分为 0.0。相比之下,TC 捕捉到了整个跳跃动作的时间信息,最终得分为 0.9。
这些结果表明,PC 关注对象的外观,而 TC 利用时间信息,两者是互补的。通过整合这两种方法,我们实现了对 VAD 的有效泛化。
C.2. 多场景下的异常检测
图 S3 展示了在包含多个异常类别的视频上执行 VAD(视频异常检测)的结果。每个图像的标题表示相应视频中使用的异常类别。我们将用户定义的异常关键词作为文本单独输入,以获取分数,并将最高分数作为相应视频段的异常分数。如可视化结果所示,所提出的 AnyAnomaly 方法能够在各种类型的异常事件上执行 VAD。这表明,即使用户希望同时检测多种异常类型,AnyAnomaly 也可以被有效地利用。
C.3. 复杂场景下的异常检测
图 S4 展示了 AnyAnomaly 在复杂场景下的可视化检测结果。“关键帧(Key Frame)”、“位置上下文(Position Context)” 和 “时间上下文(Temporal Context)” 分别可视化了 k ^ \hat{k} k^、 P C PC PC和 T C TC TC。每张图下方的文本代表 LVLM(大规模视觉语言模型)的输出。这些可视化结果表明,所提出的基于上下文的 VQA(视觉问答)方法,即利用 PC 和 TC,是有效的,并有助于提升 VAD 性能。
此外,在图 S4d 中,我们观察到即使不利用上下文信息,模型仍然能够检测出某些“醉酒行走(walking drunk)”的帧。这表明 LVLM 具备强大的视觉推理能力,使其能够在复杂场景下执行 VAD。然而,正如图 S4a–S4c 所示,仅依赖单个帧不足以充分利用这些推理能力。因此,所提出的 基于上下文的 VQA 方法 对于实现有效的 VAD 至关重要。
D. 局限性
效率在 VAD(视频异常检测)中至关重要。因此,我们在最先进的 LVLMs(大规模视觉语言模型)中选择了最轻量级的模型,并采用了段级方法,以显著减少延迟。然而,我们的方法仍然需要每个段提供三个输入(关键帧、位置上下文和时间上下文),并涉及推理过程,这使得实时分析更加具有挑战性。
此外,当多个异常事件同时发生时,每个事件都必须独立处理,这会导致延迟大幅增加。因此,我们未来的研究将致力于提高 C-VAD 在同时处理多个异常事件方面的效率。