論文の概要: A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video
- arxiv url: http://arxiv.org/abs/2008.12328v5
- Date: Thu, 6 Apr 2023 15:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 18:57:38.961599
- Title: A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video
- Title(参考訳): ビデオ中の異常事象検出のための逆トレーニングによるバックグラウンド非依存フレームワーク
- Authors: Mariana-Iuliana Georgescu, Radu Tudor Ionescu, Fahad Shahbaz Khan,
Marius Popescu and Mubarak Shah
- Abstract要約: 近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
- 参考スコア(独自算出の注目度): 120.18562044084678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abnormal event detection in video is a complex computer vision problem that
has attracted significant attention in recent years. The complexity of the task
arises from the commonly-adopted definition of an abnormal event, that is, a
rarely occurring event that typically depends on the surrounding context.
Following the standard formulation of abnormal event detection as outlier
detection, we propose a background-agnostic framework that learns from training
videos containing only normal events. Our framework is composed of an object
detector, a set of appearance and motion auto-encoders, and a set of
classifiers. Since our framework only looks at object detections, it can be
applied to different scenes, provided that normal events are defined
identically across scenes and that the single main factor of variation is the
background. To overcome the lack of abnormal data during training, we propose
an adversarial learning strategy for the auto-encoders. We create a
scene-agnostic set of out-of-domain pseudo-abnormal examples, which are
correctly reconstructed by the auto-encoders before applying gradient ascent on
the pseudo-abnormal examples. We further utilize the pseudo-abnormal examples
to serve as abnormal examples when training appearance-based and motion-based
binary classifiers to discriminate between normal and abnormal latent features
and reconstructions. We compare our framework with the state-of-the-art methods
on four benchmark data sets, using various evaluation metrics. Compared to
existing methods, the empirical results indicate that our approach achieves
favorable performance on all data sets. In addition, we provide region-based
and track-based annotations for two large-scale abnormal event detection data
sets from the literature, namely ShanghaiTech and Subway.
- Abstract(参考訳): 近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
タスクの複雑さは、一般的に予想される異常事象の定義、すなわち、周囲の状況に依存するまれな事象から生じる。
異常事象検出の標準定式化に続いて,通常のイベントのみを含むトレーニングビデオから学習する背景に依存しないフレームワークを提案する。
我々のフレームワークは、オブジェクト検出器、外観と動きの自動エンコーダのセット、および分類器のセットで構成されている。
我々のフレームワークはオブジェクト検出のみに注目しているため、通常のイベントがシーン間で同一に定義され、変動の唯一の要因が背景であることから、異なるシーンに適用することができる。
トレーニング中の異常データの欠如を克服するため,自動エンコーダの対角学習戦略を提案する。
我々は,擬似異常例に勾配アセントを適用する前に,オートエンコーダによって正しく再構成される,領域外擬似異常例のシーン非依存セットを作成する。
さらに、擬似異常例は、通常特徴と異常特徴と再構成を区別するために、外見に基づくトレーニングと運動に基づくバイナリ分類器の異常例として機能する。
各種評価指標を用いて,4つのベンチマークデータセットの最先端手法との比較を行った。
既存の手法と比較すると,本手法はすべてのデータセットにおいて良好な性能を発揮することを示す。
さらに,上海工科大学と地下鉄の2つの大規模異常事象検出データセットに対して,地域ベースおよびトラックベースのアノテーションを提供する。
関連論文リスト
- Learn Suspected Anomalies from Event Prompts for Video Anomaly Detection [49.91075101563298]
イベントプロンプトから疑わしい異常の学習を導くための新しい枠組みが提案されている。
これにより、新しいマルチプロンプト学習プロセスにより、すべてのビデオの視覚的セマンティックな特徴を制限できる。
提案手法はAPやAUCといった最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-02T10:42:47Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [55.52743265122446]
ディープオートエンコーダは視覚領域における異常検出のタスクに使われてきた。
我々は、訓練中に識別情報を使用することが可能な自己指導型学習体制を適用することで、この問題に対処する。
MVTec ADデータセットを用いた実験では,高い検出性能と局所化性能を示した。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Object-centric and memory-guided normality reconstruction for video
anomaly detection [56.64792194894702]
本稿では,ビデオ監視における異常検出問題に対処する。
異常事象の固有な規則性と不均一性のため、問題は正規性モデリング戦略と見なされる。
我々のモデルは、トレーニング中に異常なサンプルを見ることなく、オブジェクト中心の正規パターンを学習する。
論文 参考訳(メタデータ) (2022-03-07T19:28:39Z) - Anomaly Crossing: A New Method for Video Anomaly Detection as
Cross-domain Few-shot Learning [32.0713939637202]
ビデオ異常検出は、ビデオで発生した異常事象を特定することを目的としている。
従来のアプローチのほとんどは、教師なしまたは半教師なしの手法で通常のビデオからのみ学習する。
本稿では,ビデオの異常検出に通常のビデオと異常ビデオの両方をフル活用することで,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-12T20:49:38Z) - UBnormal: New Benchmark for Supervised Open-Set Video Anomaly Detection [103.06327681038304]
本稿では,複数の仮想シーンで構成された教師付きオープンセット・ベンチマークを提案する。
既存のデータセットとは異なり、トレーニング時に画素レベルでアノテートされた異常事象を導入する。
UBnormalは最先端の異常検出フレームワークの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-11-16T17:28:46Z) - Reliable Shot Identification for Complex Event Detection via
Visual-Semantic Embedding [72.9370352430965]
本稿では,映像中の事象検出のための視覚的意味的誘導損失法を提案する。
カリキュラム学習に動機付け,高い信頼性の事例で分類器の訓練を開始するために,負の弾性正規化項を導入する。
提案する非ネット正規化問題の解法として,代替最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-12T11:46:56Z) - Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features [8.407188666535506]
既存のほとんどのメソッドはオートエンコーダを使用して、通常のビデオの再構築を学ぶ。
本稿では2つのエンコーダが暗黙的に外観と動きの特徴をモデル化する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,ITAE特徴量の正規密度推定を提案する。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
論文 参考訳(メタデータ) (2020-10-15T05:02:02Z) - Learning Memory-guided Normality for Anomaly Detection [33.77435699029528]
本稿では,異常検出に対する教師なし学習手法を提案する。
また,メモリをトレーニングするための特徴量と分離性損失を新たに提示し,メモリアイテムの識別能力と通常のデータからの深い学習能力を高める。
論文 参考訳(メタデータ) (2020-03-30T05:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。