論文の概要: Normal Learning in Videos with Attention Prototype Network
- arxiv url: http://arxiv.org/abs/2108.11055v1
- Date: Wed, 25 Aug 2021 05:51:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 19:59:47.090919
- Title: Normal Learning in Videos with Attention Prototype Network
- Title(参考訳): 注意型ネットワークを用いたビデオの正規学習
- Authors: Chao Hu, Fan Wu, Weijie Wu, Weibin Qiu, Shengxin Lai
- Abstract要約: 本稿では,通常の潜伏空間をプロトタイプとしてリアルタイムに符号化する自己注意型プロトタイプユニット(APU)を提案する。
さらに,我々の背骨に循環的注意機構を導入し,新たな特徴抽出学習者,すなわち循環的注意ユニット(CAU)を形成する。
- 参考スコア(独自算出の注目度): 6.842621605295172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Frame reconstruction (current or future frame) based on Auto-Encoder (AE) is
a popular method for video anomaly detection. With models trained on the normal
data, the reconstruction errors of anomalous scenes are usually much larger
than those of normal ones. Previous methods introduced the memory bank into AE,
for encoding diverse normal patterns across the training videos. However, they
are memory consuming and cannot cope with unseen new scenarios in the testing
data. In this work, we propose a self-attention prototype unit (APU) to encode
the normal latent space as prototypes in real time, free from extra memory
cost. In addition, we introduce circulative attention mechanism to our backbone
to form a novel feature extracting learner, namely Circulative Attention Unit
(CAU). It enables the fast adaption capability on new scenes by only consuming
a few iterations of update. Extensive experiments are conducted on various
benchmarks. The superior performance over the state-of-the-art demonstrates the
effectiveness of our method. Our code is available at
https://github.com/huchao-AI/APN/.
- Abstract(参考訳): オートエンコーダ(AE)に基づくフレーム再構成(現在または将来のフレーム)は、ビデオ異常検出の一般的な方法である。
通常のデータに基づいてトレーニングされたモデルでは、異常シーンの再構成エラーは通常、通常のものよりもはるかに大きい。
以前の方法では、トレーニングビデオのさまざまな通常のパターンをエンコードするために、メモリバンクをAEに導入していた。
しかし、それらはメモリ消費であり、テストデータで目に見えない新しいシナリオに対応できない。
本研究では,通常の潜伏空間をメモリコストを伴わず,プロトタイプとしてリアルタイムに符号化する自己注意型プロトタイプユニット(APU)を提案する。
さらに,我々の背骨に循環注意機構を導入し,新たな特徴抽出学習者,すなわち循環注意ユニット(CAU)を形成する。
新しいシーンへの高速な適応機能を実現するために、更新を数回繰り返すだけでよい。
様々なベンチマークで広範な実験が行われている。
最先端技術よりも優れた性能は,本手法の有効性を示す。
私たちのコードはhttps://github.com/huchao-AI/APN/で利用可能です。
関連論文リスト
- Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - Patch-wise Auto-Encoder for Visual Anomaly Detection [1.7546477549938133]
本稿では,AEのアノマリーに対する再構成能力を弱めることなく向上することを目的としたパッチワイド自動エンコーダフレームワークを提案する。
本手法は,Mvtec ADベンチマークの最先端性能を向上し,本モデルの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T10:15:15Z) - Towards Video Anomaly Retrieval from Video Anomaly Detection: New
Benchmarks and Model [70.97446870672069]
ビデオ異常検出(VAD)はその潜在的な応用により注目されている。
Video Anomaly Retrieval (VAR)は、関連のある動画をモダリティによって実用的に検索することを目的としている。
一般的な異常データセットの上に構築されたUCFCrime-ARとXD-Violenceの2つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-07-24T06:22:37Z) - Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly
Detectors [117.61449210940955]
ビデオフレームレベルで適用された軽量マスク付きオートエンコーダ(AE)に基づく効率的な異常事象検出モデルを提案する。
動き勾配に基づく重みトークンへのアプローチを導入し、静的背景シーンから前景オブジェクトへ焦点を移す。
トレーニングビデオの強化のために合成異常事象を生成し,マスク付きAEモデルを用いてオリジナルのフレームを共同で再構築する。
論文 参考訳(メタデータ) (2023-06-21T06:18:05Z) - Synthetic Pseudo Anomalies for Unsupervised Video Anomaly Detection: A
Simple yet Efficient Framework based on Masked Autoencoder [1.9511777443446219]
本稿では,ビデオ異常検出のための簡易かつ効率的なフレームワークを提案する。
擬似異常サンプルは、余分なデータ処理をせずにランダムマスクトークンを埋め込み、正規データのみから合成する。
また、正規性とそれに対応する擬似異常データから正規知識をよりよく学習するよう、AEsに促す正規性整合性訓練戦略を提案する。
論文 参考訳(メタデータ) (2023-03-09T08:33:38Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Anomaly detection in surveillance videos using transformer based
attention model [3.2968779106235586]
本研究は、トレーニングビデオにおける異常セグメントの注釈付けを避けるために、弱教師付き戦略を用いることを示唆する。
提案するフレームワークは,実世界のデータセット,すなわちShanghaiTech Campusデータセットで検証される。
論文 参考訳(メタデータ) (2022-06-03T12:19:39Z) - Anomaly Detection with Prototype-Guided Discriminative Latent Embeddings [29.93983580779689]
本論文では,通常のデータの識別的プロトタイプを用いて映像フレームを再構築する異常検出手法を提案する。
このようにして、モデルは通常のイベントの再構築を支持し、異常なイベントの再構築を歪めます。
本手法の有効性を3つのベンチマークデータセットで評価し,提案手法が最先端を上回っていることを示す。
論文 参考訳(メタデータ) (2021-04-30T12:16:52Z) - Learning Normal Dynamics in Videos with Meta Prototype Network [42.26572006215833]
メモリコストを伴わずに,プロトタイプとして正規ダイナミクスをリアルタイムに符号化するプロトタイプユニット(DPU)を提案する。
さらに,メタ・プロトタイプ・ユニット(MPU)という,新規な数発の正規化学習者を形成するメタ・ラーニングを導入する。
論文 参考訳(メタデータ) (2021-04-14T08:25:53Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。