論文の概要: Exploiting Spatial-temporal Correlations for Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2211.00829v1
- Date: Wed, 2 Nov 2022 02:13:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:19:00.086884
- Title: Exploiting Spatial-temporal Correlations for Video Anomaly Detection
- Title(参考訳): 映像異常検出のための時空間相関の爆発
- Authors: Mengyang Zhao, Yang Liu, Jing Li, Xinhua Zeng
- Abstract要約: ビデオ異常検出(VAD)は、異常事象のあいまいさと多様性のため、パターン認識コミュニティにおいて難しい課題である。
本稿では,ST-LSTMを用いて逆学習を行うための識別器を導入し,学習能力を向上させる。
本手法は, UCSD2, CUHKアベニュー, 上海テックにおいて, AUCの96.7%, 87.8%, 73.1%の最先端手法と比較して, 競争性能が向上する。
- 参考スコア(独自算出の注目度): 7.336831373786849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video anomaly detection (VAD) remains a challenging task in the pattern
recognition community due to the ambiguity and diversity of abnormal events.
Existing deep learning-based VAD methods usually leverage proxy tasks to learn
the normal patterns and discriminate the instances that deviate from such
patterns as abnormal. However, most of them do not take full advantage of
spatial-temporal correlations among video frames, which is critical for
understanding normal patterns. In this paper, we address unsupervised VAD by
learning the evolution regularity of appearance and motion in the long and
short-term and exploit the spatial-temporal correlations among consecutive
frames in normal videos more adequately. Specifically, we proposed to utilize
the spatiotemporal long short-term memory (ST-LSTM) to extract and memorize
spatial appearances and temporal variations in a unified memory cell. In
addition, inspired by the generative adversarial network, we introduce a
discriminator to perform adversarial learning with the ST-LSTM to enhance the
learning capability. Experimental results on standard benchmarks demonstrate
the effectiveness of spatial-temporal correlations for unsupervised VAD. Our
method achieves competitive performance compared to the state-of-the-art
methods with AUCs of 96.7%, 87.8%, and 73.1% on the UCSD Ped2, CUHK Avenue, and
ShanghaiTech, respectively.
- Abstract(参考訳): 映像異常検出(vad)は,異常事象のあいまいさと多様性のため,パターン認識コミュニティにおいて課題となっている。
既存のディープラーニングベースのVADメソッドは通常、プロキシタスクを利用して通常のパターンを学び、異常なパターンから逸脱するインスタンスを識別する。
しかし、ビデオフレーム間の空間的時間的相関をフルに活用するわけではなく、通常のパターンを理解するのに欠かせない。
本稿では,長期および短期における出現と運動の進化の規則性を学習し,通常映像における連続フレーム間の空間・時間相関をより適切に活用することにより,教師なしvadに対処する。
具体的には、時空間長短期記憶(ST-LSTM)を用いて、統合メモリセルの空間的外観と時間的変動を抽出し記憶する。
さらに, 学習能力を高めるためにST-LSTMを用いて対数学習を行うための判別器を導入する。
標準ベンチマーク実験の結果, 教師なしVADにおける空間時間相関の有効性が示された。
本手法は, UCSD Ped2, CUHK Avenue, ShanghaiTechにおいて, AUCの96.7%, 87.8%, 73.1%の最先端手法と比較して, 競争性能が向上する。
関連論文リスト
- Self-Supervised Spatial-Temporal Normality Learning for Time Series Anomaly Detection [30.364392156075294]
Time Series Anomaly Detection (TSAD)は、金融市場、工業生産、医療など、さまざまな分野に広く応用されている。
既存のTSAD手法の多くは、空間次元における意味情報を無視しながら、時間次元からのデータモデリングに重点を置いている。
時空間正規化学習(Spatial-Temporal Normality Learning, STEN)と呼ばれる新しい手法を導入する。
論文 参考訳(メタデータ) (2024-06-28T09:17:58Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z) - Learning Multi-Pattern Normalities in the Frequency Domain for Efficient Time Series Anomaly Detection [37.992737349167676]
時系列異常検出のための周波数領域における多重正規パターン対応異常検出手法を提案する。
i) 統一モデルで多様な正規パターンを扱うのに優れたパターン抽出機構、(ii) 時間領域における短期異常を増幅し周波数領域における異常の再構築を妨げる双対的畳み込み機構、(iii) 周波数領域のスパーシリティと並列性を活用してモデル効率を向上させる。
論文 参考訳(メタデータ) (2023-11-26T03:31:43Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - On the Importance of Spatial Relations for Few-shot Action Recognition [109.2312001355221]
本稿では,空間的関係の重要性を考察し,より正確な数発アクション認識法を提案する。
新たな空間アライメントクロストランス(SA-CT)は、空間関係を再調整し、時間情報を組み込む。
実験の結果, 時間的情報を使用しなくても, SA-CTの性能は3/4ベンチマークの時間的手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2023-08-14T12:58:02Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Spatio-temporal predictive tasks for abnormal event detection in videos [60.02503434201552]
オブジェクトレベルの正規化パターンを学習するための制約付きプレテキストタスクを提案する。
我々のアプローチは、ダウンスケールの視覚的クエリとそれに対応する正常な外観と運動特性のマッピングを学習することである。
いくつかのベンチマークデータセットの実験では、異常の局所化と追跡のためのアプローチの有効性が示されている。
論文 参考訳(メタデータ) (2022-10-27T19:45:12Z) - Learning Appearance-motion Normality for Video Anomaly Detection [11.658792932975652]
時空間記憶を付加した2ストリーム自動エンコーダフレームワークを提案する。
見た目の正常さと動きの正常さを独立に学習し、敵の学習を通して相関関係を探索する。
我々のフレームワークは最先端の手法より優れており、UCSD Ped2とCUHK Avenueのデータセットで98.1%、89.8%のAUCを実現している。
論文 参考訳(メタデータ) (2022-07-27T08:30:19Z) - Anomaly Transformer: Time Series Anomaly Detection with Association
Discrepancy [68.86835407617778]
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-10-06T10:33:55Z) - Hierarchically Decoupled Spatial-Temporal Contrast for Self-supervised
Video Representation Learning [6.523119805288132]
a) 学習対象を2つの対照的なサブタスクに分解し、空間的特徴と時間的特徴を強調し、(b) 階層的にそれを実行し、マルチスケールな理解を促進する。
論文 参考訳(メタデータ) (2020-11-23T08:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。