論文の概要: A Hybrid Video Anomaly Detection Framework via Memory-Augmented Flow
Reconstruction and Flow-Guided Frame Prediction
- arxiv url: http://arxiv.org/abs/2108.06852v1
- Date: Mon, 16 Aug 2021 01:37:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:05:48.462936
- Title: A Hybrid Video Anomaly Detection Framework via Memory-Augmented Flow
Reconstruction and Flow-Guided Frame Prediction
- Title(参考訳): メモリ拡張フロー再構成とフローガイドフレーム予測によるハイブリッドビデオ異常検出フレームワーク
- Authors: Zhian Liu, Yongwei Nie, Chengjiang Long, Qing Zhang, Guiqing Li
- Abstract要約: $textHF2$-VADは、フロー再構成とFrame予測を統合するハイブリッドフレームワークである。
ML-MemAE-SCのネットワークを設計し,光学的フロー再構成のための正規パターンを記憶する。
次に, 条件付き変分オートエンコーダを用いて, 前の数フレームから次のフレームを予測する。
- 参考スコア(独自算出の注目度): 34.565986275769745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose $\text{HF}^2$-VAD, a Hybrid framework that
integrates Flow reconstruction and Frame prediction seamlessly to handle Video
Anomaly Detection. Firstly, we design the network of ML-MemAE-SC (Multi-Level
Memory modules in an Autoencoder with Skip Connections) to memorize normal
patterns for optical flow reconstruction so that abnormal events can be
sensitively identified with larger flow reconstruction errors. More
importantly, conditioned on the reconstructed flows, we then employ a
Conditional Variational Autoencoder (CVAE), which captures the high correlation
between video frame and optical flow, to predict the next frame given several
previous frames. By CVAE, the quality of flow reconstruction essentially
influences that of frame prediction. Therefore, poorly reconstructed optical
flows of abnormal events further deteriorate the quality of the final predicted
future frame, making the anomalies more detectable. Experimental results
demonstrate the effectiveness of the proposed method. Code is available at
\href{https://github.com/LiUzHiAn/hf2vad}{https://github.com/LiUzHiAn/hf2vad}.
- Abstract(参考訳): 本稿では,ビデオ異常検出のためのフロー再構成とフレーム予測をシームレスに統合したハイブリッドフレームワークである$\text{HF}^2$-VADを提案する。
まず, ml-memae-sc (multi-level memory module in a autoencoder with skip connections) のネットワークを設計し, 光フロー再構成のための正規パターンを記憶し, 異常事象をより大きなフロー再構成誤差と敏感に識別する。
さらに, 再構成フローを条件として, ビデオフレームと光フローとの相関度が高い条件付き変分オートエンコーダ(cvae)を用いて, 先行する複数のフレームに対して次のフレームを予測した。
CVAEにより、フロー再構成の品質は本質的にフレーム予測の品質に影響を及ぼす。
そのため、異常事象の再構成の不十分な光学フローは、最終的な予測される将来のフレームの品質をさらに悪化させ、異常をより検出可能とした。
実験の結果,提案手法の有効性が示された。
コードは \href{https://github.com/liuzhian/hf2vad}{https://github.com/liuzhian/hf2vad} で入手できる。
関連論文リスト
- OCAI: Improving Optical Flow Estimation by Occlusion and Consistency Aware Interpolation [55.676358801492114]
本稿では,中間映像フレームと光フローを同時に生成することで,フレームのあいまいさを頑健に支援するOCAIを提案する。
我々は,Sintel や KITTI などの既存のベンチマークにおいて,優れた品質と光フロー精度を実証した。
論文 参考訳(メタデータ) (2024-03-26T20:23:48Z) - Enhanced Event-Based Video Reconstruction with Motion Compensation [26.03328887451797]
本稿では,入力強度フレームとスパース符号の歪みを補正し,再現性を向上させることを提案する。
CISTA-Flowネットワークは、動き補償のためのフローネットワークとCISTA-LSTCを統合することで構築される。
以上の結果から,本手法は最先端の復元精度を達成し,信頼性の高い高密度流れ推定を同時に提供することを示す。
論文 参考訳(メタデータ) (2024-03-18T16:58:23Z) - E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - AccFlow: Backward Accumulation for Long-Range Optical Flow [70.4251045372285]
本稿では、長距離光フロー推定のためのAccFlowと呼ばれる新しいリカレントフレームワークを提案する。
従来の前方累積よりも後方累積の方が優れていることを示す。
長距離光流量推定におけるAccFlowの有効性を検証する実験
論文 参考訳(メタデータ) (2023-08-25T01:51:26Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Unsupervised Flow-Aligned Sequence-to-Sequence Learning for Video
Restoration [85.3323211054274]
ビデオシーケンス内のフレーム間関係を適切にモデル化する方法は、ビデオ復元(VR)において重要であるが未解決の課題である。
本研究では,この問題を解決するために,教師なしフローアライメントシーケンス・ツー・シーケンス・モデル(S2SVR)を提案する。
S2SVRは、ビデオデブリ、ビデオスーパー解像度、圧縮されたビデオ品質向上など、複数のVRタスクにおいて優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-05-20T14:14:48Z) - FDAN: Flow-guided Deformable Alignment Network for Video
Super-Resolution [12.844337773258678]
変形可能なコンボリューションに光流を統合するために,フロー誘導変形モジュール (FDM) を提案する。
FDANは、2つのベンチマークデータセットで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-05-12T13:18:36Z) - Anomaly Detection with Prototype-Guided Discriminative Latent Embeddings [29.93983580779689]
本論文では,通常のデータの識別的プロトタイプを用いて映像フレームを再構築する異常検出手法を提案する。
このようにして、モデルは通常のイベントの再構築を支持し、異常なイベントの再構築を歪めます。
本手法の有効性を3つのベンチマークデータセットで評価し,提案手法が最先端を上回っていることを示す。
論文 参考訳(メタデータ) (2021-04-30T12:16:52Z) - PDWN: Pyramid Deformable Warping Network for Video Interpolation [11.62213584807003]
Pyramid Deformable Warping Network (PDWN) と呼ばれる軽量かつ効果的なモデルを提案する。
PDWNはピラミッド構造を使用して、既知のフレームに関して未知の中間フレームのDConvオフセットを生成します。
提案手法は,複数のデータセットの最先端モデルと比較して精度が向上する。
論文 参考訳(メタデータ) (2021-04-04T02:08:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。