論文の概要: Weakly Supervised Video Anomaly Detection with Anomaly-Connected Components and Intention Reasoning
- arxiv url: http://arxiv.org/abs/2603.00550v1
- Date: Sat, 28 Feb 2026 08:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.256939
- Title: Weakly Supervised Video Anomaly Detection with Anomaly-Connected Components and Intention Reasoning
- Title(参考訳): Anomaly-Connected Components と Intention Reasoning を用いた弱補正ビデオ異常検出
- Authors: Yu Wang, Shengjie Zhao,
- Abstract要約: 本稿では,WS-VAD のための Anomaly Semantics を学習するための LAS-VAD という新しいフレームワークを提案する。
本フレームワークは,異常接続されたコンポーネント機構と意図認識機構を統合している。
最先端の手法よりも優れており、顕著な利得がある。
- 参考スコア(独自算出の注目度): 23.043341269626016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weakly supervised video anomaly detection (WS-VAD) involves identifying the temporal intervals that contain anomalous events in untrimmed videos, where only video-level annotations are provided as supervisory signals. However, a key limitation persists in WS-VAD, as dense frame-level annotations are absent, which often leaves existing methods struggling to learn anomaly semantics effectively. To address this issue, we propose a novel framework named LAS-VAD, short for Learning Anomaly Semantics for WS-VAD, which integrates anomaly-connected component mechanism and intention awareness mechanism. The former is designed to assign video frames into distinct semantic groups within a video, and frame segments within the same group are deemed to share identical semantic information. The latter leverages an intention-aware strategy to distinguish between similar normal and abnormal behaviors (e.g., taking items and stealing). To further model the semantic information of anomalies, as anomaly occurrence is accompanied by distinct characteristic attributes (i.e., explosions are characterized by flames and thick smoke), we additionally incorporate anomaly attribute information to guide accurate detection. Extensive experiments on two benchmark datasets, XD-Violence and UCF-Crime, demonstrate that our LAS-VAD outperforms current state-of-the-art methods with remarkable gains.
- Abstract(参考訳): 弱教師付きビデオ異常検出(WS-VAD)は、ビデオレベルのアノテーションのみを監視信号として提供する未トリミングビデオにおける異常イベントを含む時間間隔を識別する。
しかし、高密度なフレームレベルのアノテーションが欠如しているため、WS-VADでは重要な制限が続き、しばしば既存のメソッドは、異常なセマンティクスを効果的に学習するのに苦労する。
この問題に対処するため,WS-VAD のための学習異常意味論(Learning Anomaly Semantics for WS-VAD) を短縮した LAS-VAD という新しいフレームワークを提案する。
前者はビデオ内の異なるセマンティックグループにビデオフレームを割り当てるように設計されており、同一グループ内のフレームセグメントは同じセマンティック情報を共有すると考えられている。
後者は意図認識戦略を利用して、同じような正常な行動と異常な行動を区別する(例:アイテムを盗む、盗む)。
異常発生には, 火炎や厚い煙が特徴とする特徴特性が伴うため, さらに, 異常属性情報を組み込んで, 正確な検出を導出する。
XD-Violence(英語版)とUCF-Crime(英語版)という2つのベンチマークデータセットに対する大規模な実験は、私たちのLAS-VADが最先端の手法よりも顕著に優れていることを示した。
関連論文リスト
- Steering and Rectifying Latent Representation Manifolds in Frozen Multi-modal LLMs for Video Anomaly Detection [52.5174167737992]
ビデオ異常検出(VAD)は、ビデオ内の異常事象を特定することを目的としている。
本稿では,MLLMに基づくVADを受動的に読み上げから内部表現を積極的に操り,修正するSteerVADを提案する。
本手法は、トレーニングデータの1%しか必要としないチューニングフリーアプローチにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2026-02-27T13:48:50Z) - Learning Event Completeness for Weakly Supervised Video Anomaly Detection [5.140169437190526]
弱監視ビデオ異常検出(LEC-VAD)のための新しい学習イベント完全性を提案する。
LEC-VADは、視覚と言語の間のカテゴリー認識とカテゴリー認識のセマンティクスの両方を符号化する。
本研究では,異常項目のカテゴリに関連付けられた簡潔なテキスト記述を豊かにするための,新しいメモリバンクベースのプロトタイプ学習機構を開発する。
論文 参考訳(メタデータ) (2025-06-16T04:56:58Z) - Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Learn Suspected Anomalies from Event Prompts for Video Anomaly Detection [16.77262005540559]
イベントプロンプトから疑わしい異常の学習を導くための新しい枠組みが提案されている。
これにより、新しいマルチプロンプト学習プロセスにより、すべてのビデオの視覚的セマンティックな特徴を制限できる。
提案手法はAPやAUCといった最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-02T10:42:47Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Towards Video Anomaly Retrieval from Video Anomaly Detection: New
Benchmarks and Model [70.97446870672069]
ビデオ異常検出(VAD)はその潜在的な応用により注目されている。
Video Anomaly Retrieval (VAR)は、関連のある動画をモダリティによって実用的に検索することを目的としている。
一般的な異常データセットの上に構築されたUCFCrime-ARとXD-Violenceの2つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-07-24T06:22:37Z) - Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features [8.407188666535506]
既存のほとんどのメソッドはオートエンコーダを使用して、通常のビデオの再構築を学ぶ。
本稿では2つのエンコーダが暗黙的に外観と動きの特徴をモデル化する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,ITAE特徴量の正規密度推定を提案する。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
論文 参考訳(メタデータ) (2020-10-15T05:02:02Z) - Localizing Anomalies from Weakly-Labeled Videos [45.58643708315132]
Weakly Supervised Anomaly Localization (WSAL)法を提案する。
異常映像の出現差にインスパイアされ, 隣接する時間領域の進化を異常映像の局所化のために評価した。
提案手法は,UCF-CrimeおよびTADデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-08-20T12:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。