論文の概要: A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video
- arxiv url: http://arxiv.org/abs/2008.12328v4
- Date: Mon, 10 May 2021 14:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 08:29:03.951463
- Title: A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video
- Title(参考訳): ビデオ中の異常事象検出のための逆トレーニングによるバックグラウンド非依存フレームワーク
- Authors: Mariana-Iuliana Georgescu, Radu Tudor Ionescu, Fahad Shahbaz Khan,
Marius Popescu and Mubarak Shah
- Abstract要約: 近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
- 参考スコア(独自算出の注目度): 120.18562044084678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abnormal event detection in video is a complex computer vision problem that
has attracted significant attention in recent years. The complexity of the task
arises from the commonly-adopted definition of an abnormal event, that is, a
rarely occurring event that typically depends on the surrounding context.
Following the standard formulation of abnormal event detection as outlier
detection, we propose a background-agnostic framework that learns from training
videos containing only normal events. Our framework is composed of an object
detector, a set of appearance and motion auto-encoders, and a set of
classifiers. Since our framework only looks at object detections, it can be
applied to different scenes, provided that normal events are defined
identically across scenes and that the single main factor of variation is the
background. To overcome the lack of abnormal data during training, we propose
an adversarial learning strategy for the auto-encoders. We create a
scene-agnostic set of out-of-domain pseudo-abnormal examples, which are
correctly reconstructed by the auto-encoders before applying gradient ascent on
the pseudo-abnormal examples. We further utilize the pseudo-abnormal examples
to serve as abnormal examples when training appearance-based and motion-based
binary classifiers to discriminate between normal and abnormal latent features
and reconstructions. We compare our framework with the state-of-the-art methods
on four benchmark data sets, using various evaluation metrics. Compared to
existing methods, the empirical results indicate that our approach achieves
favorable performance on all data sets. In addition, we provide region-based
and track-based annotations for two large-scale abnormal event detection data
sets from the literature, namely ShanghaiTech and Subway.
- Abstract(参考訳): 近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
タスクの複雑さは、一般的に予想される異常事象の定義、すなわち、周囲の状況に依存するまれな事象から生じる。
異常事象検出の標準定式化に続いて,通常のイベントのみを含むトレーニングビデオから学習する背景に依存しないフレームワークを提案する。
我々のフレームワークは、オブジェクト検出器、外観と動きの自動エンコーダのセット、および分類器のセットで構成されている。
我々のフレームワークはオブジェクト検出のみに注目しているため、通常のイベントがシーン間で同一に定義され、変動の唯一の要因が背景であることから、異なるシーンに適用することができる。
トレーニング中の異常データの欠如を克服するため,自動エンコーダの対角学習戦略を提案する。
我々は,擬似異常例に勾配アセントを適用する前に,オートエンコーダによって正しく再構成される,領域外擬似異常例のシーン非依存セットを作成する。
さらに、擬似異常例は、通常特徴と異常特徴と再構成を区別するために、外見に基づくトレーニングと運動に基づくバイナリ分類器の異常例として機能する。
各種評価指標を用いて,4つのベンチマークデータセットの最先端手法との比較を行った。
既存の手法と比較すると,本手法はすべてのデータセットにおいて良好な性能を発揮することを示す。
さらに,上海工科大学と地下鉄の2つの大規模異常事象検出データセットに対して,地域ベースおよびトラックベースのアノテーションを提供する。
関連論文リスト
- Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [88.34095233600719]
FAPromptは、より正確なZSADのためにきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
画像レベルおよび画素レベルのZSADタスクにおいて、最先端の手法を少なくとも3%-5%のAUC/APで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - AnomalyCLIP: Object-agnostic Prompt Learning for Zero-shot Anomaly Detection [30.679012320439625]
AnomalyCLIPはオブジェクトに依存しないテキストを学習し、画像の一般的な正規性と異常をキャプチャする。
非常に多様なクラスセマンティクスのデータセットにおける異常の検出とセグメンテーションにおいて、優れたゼロショット性能を実現する。
論文 参考訳(メタデータ) (2023-10-29T10:03:49Z) - Object-centric and memory-guided normality reconstruction for video
anomaly detection [56.64792194894702]
本稿では,ビデオ監視における異常検出問題に対処する。
異常事象の固有な規則性と不均一性のため、問題は正規性モデリング戦略と見なされる。
我々のモデルは、トレーニング中に異常なサンプルを見ることなく、オブジェクト中心の正規パターンを学習する。
論文 参考訳(メタデータ) (2022-03-07T19:28:39Z) - Anomaly Crossing: A New Method for Video Anomaly Detection as
Cross-domain Few-shot Learning [32.0713939637202]
ビデオ異常検出は、ビデオで発生した異常事象を特定することを目的としている。
従来のアプローチのほとんどは、教師なしまたは半教師なしの手法で通常のビデオからのみ学習する。
本稿では,ビデオの異常検出に通常のビデオと異常ビデオの両方をフル活用することで,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-12T20:49:38Z) - UBnormal: New Benchmark for Supervised Open-Set Video Anomaly Detection [103.06327681038304]
本稿では,複数の仮想シーンで構成された教師付きオープンセット・ベンチマークを提案する。
既存のデータセットとは異なり、トレーニング時に画素レベルでアノテートされた異常事象を導入する。
UBnormalは最先端の異常検出フレームワークの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-11-16T17:28:46Z) - Reliable Shot Identification for Complex Event Detection via
Visual-Semantic Embedding [72.9370352430965]
本稿では,映像中の事象検出のための視覚的意味的誘導損失法を提案する。
カリキュラム学習に動機付け,高い信頼性の事例で分類器の訓練を開始するために,負の弾性正規化項を導入する。
提案する非ネット正規化問題の解法として,代替最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-12T11:46:56Z) - Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features [8.407188666535506]
既存のほとんどのメソッドはオートエンコーダを使用して、通常のビデオの再構築を学ぶ。
本稿では2つのエンコーダが暗黙的に外観と動きの特徴をモデル化する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,ITAE特徴量の正規密度推定を提案する。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
論文 参考訳(メタデータ) (2020-10-15T05:02:02Z) - Learning Memory-guided Normality for Anomaly Detection [33.77435699029528]
本稿では,異常検出に対する教師なし学習手法を提案する。
また,メモリをトレーニングするための特徴量と分離性損失を新たに提示し,メモリアイテムの識別能力と通常のデータからの深い学習能力を高める。
論文 参考訳(メタデータ) (2020-03-30T05:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。