論文の概要: RefineVAD: Semantic-Guided Feature Recalibration for Weakly Supervised Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2511.13204v1
- Date: Mon, 17 Nov 2025 10:15:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.121983
- Title: RefineVAD: Semantic-Guided Feature Recalibration for Weakly Supervised Video Anomaly Detection
- Title(参考訳): RefineVAD: 弱教師付きビデオ異常検出のためのセマンティックガイド機能リカレーション
- Authors: Junhee Lee, ChaeBeen Bang, MyoungChul Kim, MyeongAh Cho,
- Abstract要約: Weakly-Supervised Video Anomaly Detectionは、ビデオレベルのラベルのみを使用して異常なイベントを特定することを目的としている。
既存の手法は、全ての異常事象を単一のカテゴリとして扱うことで、しばしば異常空間を単純化する。
この二重プロセス推論を模倣する新しいフレームワークであるRefineVADを提案する。
- 参考スコア(独自算出の注目度): 2.770730728142587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weakly-Supervised Video Anomaly Detection aims to identify anomalous events using only video-level labels, balancing annotation efficiency with practical applicability. However, existing methods often oversimplify the anomaly space by treating all abnormal events as a single category, overlooking the diverse semantic and temporal characteristics intrinsic to real-world anomalies. Inspired by how humans perceive anomalies, by jointly interpreting temporal motion patterns and semantic structures underlying different anomaly types, we propose RefineVAD, a novel framework that mimics this dual-process reasoning. Our framework integrates two core modules. The first, Motion-aware Temporal Attention and Recalibration (MoTAR), estimates motion salience and dynamically adjusts temporal focus via shift-based attention and global Transformer-based modeling. The second, Category-Oriented Refinement (CORE), injects soft anomaly category priors into the representation space by aligning segment-level features with learnable category prototypes through cross-attention. By jointly leveraging temporal dynamics and semantic structure, explicitly models both "how" motion evolves and "what" semantic category it resembles. Extensive experiments on WVAD benchmark validate the effectiveness of RefineVAD and highlight the importance of integrating semantic context to guide feature refinement toward anomaly-relevant patterns.
- Abstract(参考訳): Weakly-Supervised Video Anomaly Detectionは、ビデオレベルのラベルのみを使用して異常事象を識別し、アノテーション効率と実用性とのバランスをとることを目的としている。
しかし、既存の手法は、全ての異常事象を単一のカテゴリとして扱い、現実の異常に固有の多様な意味的特徴と時間的特徴を見越して、異常空間を単純化することが多い。
ヒトが異常をどう知覚するかに触発され、異なる異常型に基づく時間的動きパターンと意味構造を共同で解釈することで、この二重プロセス推論を模倣する新しいフレームワークであるRefineVADを提案する。
私たちのフレームワークは2つのコアモジュールを統合しています。
最初のMoTAR(Motion-Aware Temporal Attention and Recalibration)は、動きのサリエンスを推定し、シフトベースの注意とグローバルトランスフォーマーベースのモデリングによって時間的焦点を動的に調整する。
第2のカテゴリ指向リファインメント(CORE)は、セグメンテーションレベルの特徴と学習可能なカテゴリのプロトタイプをクロスアテンションを通じて整列することにより、ソフトな異常なカテゴリを表現空間に注入する。
時間的ダイナミクスと意味構造を共同で活用することにより、「どのように」運動が進化し、「何を」意味圏が類似しているかを明確にモデル化する。
WVADベンチマークの大規模な実験は、RefineVADの有効性を検証し、特徴改善を異常関連パターンへ導くための意味コンテキストの統合の重要性を強調している。
関連論文リスト
- Learning to Tell Apart: Weakly Supervised Video Anomaly Detection via Disentangled Semantic Alignment [47.507511439028754]
本稿では,不規則な特徴と正常な特徴を粗粒度と細粒度から明確に分離する,DSANet(Disentangled Semantic Alignment Network)を提案する。
粗粒度レベルでは,学習された正規プロトタイプの指導のもと,入力映像の特徴を再構成する自己誘導正規性モデリングブランチを導入する。
詳細なレベルでは、まず、各動画をイベント中心およびバックグラウンド中心のコンポーネントに分解する、分離されたコントラスト的セマンティックアライメント機構を示す。
論文 参考訳(メタデータ) (2025-11-13T14:06:48Z) - Dual Conditioned Motion Diffusion for Pose-Based Video Anomaly Detection [12.100563798908777]
コンピュータビジョン研究にはビデオ異常検出(VAD)が不可欠である。
既存のVADメソッドは、再構築ベースのフレームワークまたは予測ベースのフレームワークを使用する。
ポーズに基づくビデオ異常検出に対処し、Dual Conditioned Motion Diffusionと呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-23T01:31:39Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Object-centric and memory-guided normality reconstruction for video
anomaly detection [56.64792194894702]
本稿では,ビデオ監視における異常検出問題に対処する。
異常事象の固有な規則性と不均一性のため、問題は正規性モデリング戦略と見なされる。
我々のモデルは、トレーニング中に異常なサンプルを見ることなく、オブジェクト中心の正規パターンを学習する。
論文 参考訳(メタデータ) (2022-03-07T19:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。