論文の概要: Multi-level Memory-augmented Appearance-Motion Correspondence Framework
for Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2303.05116v1
- Date: Thu, 9 Mar 2023 08:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 15:36:20.408695
- Title: Multi-level Memory-augmented Appearance-Motion Correspondence Framework
for Video Anomaly Detection
- Title(参考訳): ビデオ異常検出のための多レベルメモリ拡張外観対応フレームワーク
- Authors: Xiangyu Huang, Caidan Zhao, Jinghui Yu, Chenxing Gao and Zhiqiang Wu
- Abstract要約: マルチレベルメモリ拡張外見対応フレームワークを提案する。
外観と動きの潜在的対応は、外見と動きのセマンティックスアライメントとセマンティックス代替トレーニングによって探索される。
我々のフレームワークは最先端の手法より優れており、UCSD Ped2、CUHK Avenue、ShanghaiTechのデータセットで99.6%、93.8%、76.3%のAUCを達成した。
- 参考スコア(独自算出の注目度): 1.9511777443446219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Frame prediction based on AutoEncoder plays a significant role in
unsupervised video anomaly detection. Ideally, the models trained on the normal
data could generate larger prediction errors of anomalies. However, the
correlation between appearance and motion information is underutilized, which
makes the models lack an understanding of normal patterns. Moreover, the models
do not work well due to the uncontrollable generalizability of deep
AutoEncoder. To tackle these problems, we propose a multi-level
memory-augmented appearance-motion correspondence framework. The latent
correspondence between appearance and motion is explored via appearance-motion
semantics alignment and semantics replacement training. Besides, we also
introduce a Memory-Guided Suppression Module, which utilizes the difference
from normal prototype features to suppress the reconstruction capacity caused
by skip-connection, achieving the tradeoff between the good reconstruction of
normal data and the poor reconstruction of abnormal data. Experimental results
show that our framework outperforms the state-of-the-art methods, achieving
AUCs of 99.6\%, 93.8\%, and 76.3\% on UCSD Ped2, CUHK Avenue, and ShanghaiTech
datasets.
- Abstract(参考訳): AutoEncoderに基づくフレーム予測は、教師なしビデオ異常検出において重要な役割を果たす。
理想的には、通常のデータでトレーニングされたモデルは、異常のより大きな予測エラーを引き起こす可能性がある。
しかし、外観と動作情報の相関性は過小評価されており、モデルには通常のパターンの理解が欠けている。
さらに、Deep AutoEncoderの制御不能な一般化性のため、モデルはうまく動作しない。
これらの問題に対処するために,マルチレベルメモリ拡張外見対応フレームワークを提案する。
出現と動作の潜在対応は、出現-動作意味のアライメントと意味の置換トレーニングによって検討される。
また、通常のプロトタイプとの違いを利用して、スキップ接続による復元能力を抑制し、正常データの良好な再構築と異常データの貧弱な再構築のトレードオフを実現するメモリガイド圧縮モジュールも導入する。
実験の結果,本手法は,ucsd ped2,cuhk avenue,上海工科大学のデータセットで99.6\%,93.8\%,76.3\%のaucsを達成した。
関連論文リスト
- MLAD: A Unified Model for Multi-system Log Anomaly Detection [35.68387377240593]
複数のシステムにまたがる意味的関係推論を組み込んだ新しい異常検出モデルMLADを提案する。
具体的には、Sentence-bertを用いてログシーケンス間の類似性を捉え、それらを高次元の学習可能な意味ベクトルに変換する。
我々は,各キーワードのシーケンスにおける意義を識別し,マルチシステムデータセットの全体分布をモデル化するために,アテンション層の公式を改訂する。
論文 参考訳(メタデータ) (2024-01-15T12:51:13Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Unsupervised Video Anomaly Detection with Diffusion Models Conditioned
on Compact Motion Representations [17.816344808780965]
教師なしビデオ異常検出(VAD)問題とは、ビデオ内の各フレームをラベルにアクセスすることなく正常または異常に分類することである。
提案手法は条件付き拡散モデルを用いて,事前学習したネットワークから入力データを抽出する。
提案手法は,データ駆動しきい値を用いて,異常事象の指標として高い再構成誤差を考慮している。
論文 参考訳(メタデータ) (2023-07-04T07:36:48Z) - Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly
Detectors [117.61449210940955]
ビデオフレームレベルで適用された軽量マスク付きオートエンコーダ(AE)に基づく効率的な異常事象検出モデルを提案する。
動き勾配に基づく重みトークンへのアプローチを導入し、静的背景シーンから前景オブジェクトへ焦点を移す。
トレーニングビデオの強化のために合成異常事象を生成し,マスク付きAEモデルを用いてオリジナルのフレームを共同で再構築する。
論文 参考訳(メタデータ) (2023-06-21T06:18:05Z) - Dual Memory Units with Uncertainty Regulation for Weakly Supervised
Video Anomaly Detection [15.991784541576788]
ビデオとセグメントレベルのラベル指向の既存のアプローチは、主に異常データの表現の抽出に重点を置いている。
本研究では、正規データの表現と異常データの識別特徴の両方を学習するために、不確実性制御デュアルメモリユニット(UR-DMU)モデルを提案する。
我々の手法は、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-02-10T10:39:40Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Video Anomaly Detection via Prediction Network with Enhanced
Spatio-Temporal Memory Exchange [21.334952965297667]
ビデオ異常検出は、ほとんどの異常は少なく、決定論的ではないため、難しい作業である。
大規模なメモリ交換を拡張した畳み込みLSTM自動エンコーダ予測フレームワークを設計する。
3つのベンチマークで評価した結果,我々のフレームワークは既存の予測に基づく異常検出手法よりも優れていた。
論文 参考訳(メタデータ) (2022-06-26T16:10:56Z) - Object-centric and memory-guided normality reconstruction for video
anomaly detection [56.64792194894702]
本稿では,ビデオ監視における異常検出問題に対処する。
異常事象の固有な規則性と不均一性のため、問題は正規性モデリング戦略と見なされる。
我々のモデルは、トレーニング中に異常なサンプルを見ることなく、オブジェクト中心の正規パターンを学習する。
論文 参考訳(メタデータ) (2022-03-07T19:28:39Z) - Anomaly Detection with Prototype-Guided Discriminative Latent Embeddings [29.93983580779689]
本論文では,通常のデータの識別的プロトタイプを用いて映像フレームを再構築する異常検出手法を提案する。
このようにして、モデルは通常のイベントの再構築を支持し、異常なイベントの再構築を歪めます。
本手法の有効性を3つのベンチマークデータセットで評価し,提案手法が最先端を上回っていることを示す。
論文 参考訳(メタデータ) (2021-04-30T12:16:52Z) - Discriminative-Generative Dual Memory Video Anomaly Detection [81.09977516403411]
近年,ビデオ異常検出(VAD)には,トレーニングプロセス中に通常のデータに代えて,いくつかの異常を使おうと試みている。
本稿では,いくつかの異常を生かしてデータの不均衡を解決するために,識別生成型デュアルメモリ(dream)異常検出モデルを提案する。
論文 参考訳(メタデータ) (2021-04-29T15:49:01Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。