論文の概要: Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features
- arxiv url: http://arxiv.org/abs/2010.07524v3
- Date: Thu, 4 Aug 2022 02:31:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:09:58.143477
- Title: Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features
- Title(参考訳): 遅延特徴を有する正規化流れによる教師なしビデオ異常検出
- Authors: MyeongAh Cho, Taeoh Kim, Woo Jin Kim, Suhwan Cho, Sangyoun Lee
- Abstract要約: 既存のほとんどのメソッドはオートエンコーダを使用して、通常のビデオの再構築を学ぶ。
本稿では2つのエンコーダが暗黙的に外観と動きの特徴をモデル化する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,ITAE特徴量の正規密度推定を提案する。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
- 参考スコア(独自算出の注目度): 8.407188666535506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In contemporary society, surveillance anomaly detection, i.e., spotting
anomalous events such as crimes or accidents in surveillance videos, is a
critical task. As anomalies occur rarely, most training data consists of
unlabeled videos without anomalous events, which makes the task challenging.
Most existing methods use an autoencoder (AE) to learn to reconstruct normal
videos; they then detect anomalies based on their failure to reconstruct the
appearance of abnormal scenes. However, because anomalies are distinguished by
appearance as well as motion, many previous approaches have explicitly
separated appearance and motion information-for example, using a pre-trained
optical flow model. This explicit separation restricts reciprocal
representation capabilities between two types of information. In contrast, we
propose an implicit two-path AE (ITAE), a structure in which two encoders
implicitly model appearance and motion features, along with a single decoder
that combines them to learn normal video patterns. For the complex distribution
of normal scenes, we suggest normal density estimation of ITAE features through
normalizing flow (NF)-based generative models to learn the tractable
likelihoods and identify anomalies using out of distribution detection. NF
models intensify ITAE performance by learning normality through implicitly
learned features. Finally, we demonstrate the effectiveness of ITAE and its
feature distribution modeling on six benchmarks, including databases that
contain various anomalies in real-world scenarios.
- Abstract(参考訳): 現代の社会では、監視ビデオにおける犯罪や事故などの異常な事象を発見できる監視異常検出が重要な課題である。
異常はめったに発生しないため、ほとんどのトレーニングデータは異常なイベントを伴わないラベルなしのビデオで構成されているため、作業は困難である。
既存の手法のほとんどはオートエンコーダ(ae)を使って通常のビデオの再生を学習し、異常なシーンの出現を再現できなかったことに基づいて異常を検知する。
しかし、異常は外見や動きによって区別されるため、従来の多くのアプローチでは、例えば、事前学習された光フローモデルを用いて、明確に外見と動き情報を分離している。
この明示的な分離は、2種類の情報間の相互表現能力を制限する。
対照的に,2つのエンコーダが外観と動作の特徴を暗黙的にモデル化し,それらを組み合わせて通常のビデオパターンを学習する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,正規化フロー(NF)に基づく生成モデルによるITAE特徴の正規密度推定を提案し,抽出可能な可能性の学習と分布検出による異常の同定を行う。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
最後に、実世界のシナリオにおける様々な異常を含むデータベースを含む6つのベンチマークにおいて、ITAEとその特徴分布モデリングの有効性を実証する。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Learn Suspected Anomalies from Event Prompts for Video Anomaly Detection [16.77262005540559]
イベントプロンプトから疑わしい異常の学習を導くための新しい枠組みが提案されている。
これにより、新しいマルチプロンプト学習プロセスにより、すべてのビデオの視覚的セマンティックな特徴を制限できる。
提案手法はAPやAUCといった最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-02T10:42:47Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Dual Memory Units with Uncertainty Regulation for Weakly Supervised
Video Anomaly Detection [15.991784541576788]
ビデオとセグメントレベルのラベル指向の既存のアプローチは、主に異常データの表現の抽出に重点を置いている。
本研究では、正規データの表現と異常データの識別特徴の両方を学習するために、不確実性制御デュアルメモリユニット(UR-DMU)モデルを提案する。
我々の手法は、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-02-10T10:39:40Z) - A Video Anomaly Detection Framework based on Appearance-Motion Semantics
Representation Consistency [18.06814233420315]
本稿では,正常データの外観と動作意味表現の整合性を利用して異常検出を行うフレームワークを提案する。
通常のサンプルの外観および動作情報表現を符号化する2ストリームエンコーダを設計する。
異常サンプルの外観と運動特性の低い一貫性は、より大きな再構成誤差で予測されたフレームを生成するために使用できる。
論文 参考訳(メタデータ) (2022-04-08T15:59:57Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。