論文の概要: GlanceVAD: Exploring Glance Supervision for Label-efficient Video
Anomaly Detection
- arxiv url: http://arxiv.org/abs/2403.06154v2
- Date: Tue, 12 Mar 2024 02:44:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 11:33:51.051093
- Title: GlanceVAD: Exploring Glance Supervision for Label-efficient Video
Anomaly Detection
- Title(参考訳): GlanceVAD: ラベル効率の良いビデオ異常検出のためのGlance Supervision
- Authors: Huaxin Zhang, Xiang Wang, Xiaohao Xu, Xiaonan Huang, Chuchu Han,
Yuehuan Wang, Changxin Gao, Shanjun Zhang, Nong Sang
- Abstract要約: 本稿では,異常検出精度とアノテーションコストのバランスを改善するために,"glance annotations"と呼ばれる新しいラベリングパラダイムを提案する。
本手法の有効性を評価するため,UCF-Crime と XD-Violence の2つの標準ビデオ異常検出データセットに対して,視線アノテーションを手動でアノテートする。
また,Ssianカーネルを基本単位として時間的異常分布を構成するGlanceVAD法を提案する。
- 参考スコア(独自算出の注目度): 36.73022075416943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, video anomaly detection has been extensively investigated in
both unsupervised and weakly supervised settings to alleviate costly temporal
labeling. Despite significant progress, these methods still suffer from
unsatisfactory results such as numerous false alarms, primarily due to the
absence of precise temporal anomaly annotation. In this paper, we present a
novel labeling paradigm, termed "glance annotation", to achieve a better
balance between anomaly detection accuracy and annotation cost. Specifically,
glance annotation is a random frame within each abnormal event, which can be
easily accessed and is cost-effective. To assess its effectiveness, we manually
annotate the glance annotations for two standard video anomaly detection
datasets: UCF-Crime and XD-Violence. Additionally, we propose a customized
GlanceVAD method, that leverages gaussian kernels as the basic unit to compose
the temporal anomaly distribution, enabling the learning of diverse and robust
anomaly representations from the glance annotations. Through comprehensive
analysis and experiments, we verify that the proposed labeling paradigm can
achieve an excellent trade-off between annotation cost and model performance.
Extensive experimental results also demonstrate the effectiveness of our
GlanceVAD approach, which significantly outperforms existing advanced
unsupervised and weakly supervised methods. Code and annotations will be
publicly available at https://github.com/pipixin321/GlanceVAD.
- Abstract(参考訳): 近年、ビデオ異常検出は、時間的ラベリングのコストを軽減するために、教師なしと弱教師付きの両方で広く研究されている。
著しい進歩にもかかわらず、これらの手法は、主に正確な時間的異常アノテーションがないために、多くの誤報のような不満足な結果に苦しむ。
本稿では,異常検出精度とアノテーションコストのバランスを改善するために,"glance annotations"と呼ばれる新しいラベリングパラダイムを提案する。
具体的には、視線アノテーションは、各異常事象のランダムフレームであり、容易にアクセスでき、費用対効果がある。
本手法の有効性を評価するため,UCF-Crime と XD-Violence の2つの標準ビデオ異常検出データセットに対して,視線アノテーションを手動でアノテートする。
さらに,gaussian kernelsを基本単位として時間的異常分布を合成し,視線アノテーションから多様でロバストな異常表現の学習を可能にする,カスタマイズされたswisvad法を提案する。
包括的な分析と実験により,提案手法がアノテーションコストとモデル性能のトレードオフを良好に達成できることを確認した。
また, GlanceVAD 法の有効性を実証し, 既存の高度無監督法と弱監督法を著しく上回る結果を得た。
コードとアノテーションはhttps://github.com/pipixin321/glancevadで公開されている。
関連論文リスト
- BatchNorm-based Weakly Supervised Video Anomaly Detection [117.11382325721016]
弱教師付きビデオ異常検出では、異常事象の時間的特徴は、しばしば異常な特性を示す。
本稿では,BatchNormをWVADに組み込んだBN-WVADを提案する。
提案したBN-WVADモデルでは、UCF-CrimeのAUCは87.24%、XD-Violenceは84.93%に達する。
論文 参考訳(メタデータ) (2023-11-26T17:47:57Z) - Few-shot Message-Enhanced Contrastive Learning for Graph Anomaly
Detection [15.757864894708364]
グラフ異常検出は、多数派から大きく逸脱するグラフデータの例外的なインスタンスを特定する上で重要な役割を果たす。
我々はFMGADと呼ばれる新しい数ショットグラフ異常検出モデルを提案する。
FMGADは, 人工的に注入された異常やドメイン・有機異常によらず, 他の最先端手法よりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-17T07:49:20Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - CL-Flow:Strengthening the Normalizing Flows by Contrastive Learning for
Better Anomaly Detection [1.951082473090397]
コントラスト学習と2D-Flowを組み合わせた自己教師付き異常検出手法を提案する。
本手法は,主流の教師なし手法と比較して,検出精度が向上し,モデルパラメータが減少し,推論速度が向上することを示す。
BTADデータセットでは,MVTecADデータセットでは画像レベルのAUROCが99.6%,BTADデータセットでは画像レベルのAUROCが96.8%であった。
論文 参考訳(メタデータ) (2023-11-12T10:07:03Z) - A Coarse-to-Fine Pseudo-Labeling (C2FPL) Framework for Unsupervised
Video Anomaly Detection [4.494911384096143]
ビデオにおける異常事象の検出は、監視などのアプリケーションにおいて重要な問題である。
セグメントレベル(正規/異常)の擬似ラベルを生成する簡易な2段擬似ラベル生成フレームワークを提案する。
提案した粗大な擬似ラベル生成器は、慎重に設計された階層的分割クラスタリングと統計的仮説テストを用いている。
論文 参考訳(メタデータ) (2023-10-26T17:59:19Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - MGFN: Magnitude-Contrastive Glance-and-Focus Network for
Weakly-Supervised Video Anomaly Detection [39.923871347007875]
そこで本稿では,空間時間情報を統合して高精度な異常検出を行う新しい視点・焦点ネットワークを提案する。
異常の程度を表すために特徴量を使用する既存のアプローチは、通常、シーンのバリエーションの影響を無視する。
本稿では,異常検出のための特徴量の識別性を高めるため,特徴増幅機構とマグニチュードコントラスト損失を提案する。
論文 参考訳(メタデータ) (2022-11-28T07:10:36Z) - A Video Anomaly Detection Framework based on Appearance-Motion Semantics
Representation Consistency [18.06814233420315]
本稿では,正常データの外観と動作意味表現の整合性を利用して異常検出を行うフレームワークを提案する。
通常のサンプルの外観および動作情報表現を符号化する2ストリームエンコーダを設計する。
異常サンプルの外観と運動特性の低い一貫性は、より大きな再構成誤差で予測されたフレームを生成するために使用できる。
論文 参考訳(メタデータ) (2022-04-08T15:59:57Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。