論文の概要: Predicting Next Local Appearance for Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2106.06059v1
- Date: Thu, 10 Jun 2021 21:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:17:12.533438
- Title: Predicting Next Local Appearance for Video Anomaly Detection
- Title(参考訳): 映像異常検出における次の局所出現予測
- Authors: Pankaj Raj Roy, Guillaume-Alexandre Bilodeau and Lama Seoud
- Abstract要約: 本研究では,シーンの次のフレームにおいて,普通に振る舞う物体の出現を予測することによって,時間的局所的な外観変化を学習する逆向きの枠組みを提案する。
異常な振る舞いのある物体が存在する場合、その物体の現実と予測される次の出現の間の再構成誤差は異常の可能性を示唆する。
提案手法は,既存の最先端技術と競合すると同時に,トレーニングと推論の両面において極めて高速であり,映像シーンの非表示化に優れる。
- 参考スコア(独自算出の注目度): 12.800599155185996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a local anomaly detection method in videos. As opposed to most
existing methods that are computationally expensive and are not very
generalizable across different video scenes, we propose an adversarial
framework that learns the temporal local appearance variations by predicting
the appearance of a normally behaving object in the next frame of a scene by
only relying on its current and past appearances. In the presence of an
abnormally behaving object, the reconstruction error between the real and the
predicted next appearance of that object indicates the likelihood of an
anomaly. Our method is competitive with the existing state-of-the-art while
being significantly faster for both training and inference and being better at
generalizing to unseen video scenes.
- Abstract(参考訳): ビデオに局所異常検出手法を提案する。
計算コストが高く,異なる映像シーンではあまり一般化できない既存の手法とは対照的に,シーンの次のフレームにおける通常の振る舞いオブジェクトの出現を,現在と過去の外観にのみ依存して予測することにより,時間的局所的な外観変化を学習する逆向きのフレームワークを提案する。
異常な振る舞いのある物体が存在する場合、その物体の現実と予測される次の出現の間の再構成誤差は異常の可能性を示唆する。
提案手法は,既存の最先端技術と競合すると同時に,トレーニングと推論の両面において極めて高速であり,映像シーンの可視化に優れる。
関連論文リスト
- Spatio-temporal predictive tasks for abnormal event detection in videos [60.02503434201552]
オブジェクトレベルの正規化パターンを学習するための制約付きプレテキストタスクを提案する。
我々のアプローチは、ダウンスケールの視覚的クエリとそれに対応する正常な外観と運動特性のマッピングを学習することである。
いくつかのベンチマークデータセットの実験では、異常の局所化と追跡のためのアプローチの有効性が示されている。
論文 参考訳(メタデータ) (2022-10-27T19:45:12Z) - Multi-Contextual Predictions with Vision Transformer for Video Anomaly
Detection [22.098399083491937]
ビデオの時間的文脈を理解することは、異常検出において重要な役割を果たす。
我々は3つの異なる文脈予測ストリームを持つトランスモデルを設計する。
連続する正常フレームの欠落フレームの予測を学習することにより、ビデオ内の様々な正常パターンを効果的に学習することができる。
論文 参考訳(メタデータ) (2022-06-17T05:54:31Z) - Object-centric and memory-guided normality reconstruction for video
anomaly detection [56.64792194894702]
本稿では,ビデオ監視における異常検出問題に対処する。
異常事象の固有な規則性と不均一性のため、問題は正規性モデリング戦略と見なされる。
我々のモデルは、トレーニング中に異常なサンプルを見ることなく、オブジェクト中心の正規パターンを学習する。
論文 参考訳(メタデータ) (2022-03-07T19:28:39Z) - Deconfounded Video Moment Retrieval with Causal Intervention [80.90604360072831]
本研究は,ビデオ中の特定のモーメントをテキストクエリに従ってローカライズすることを目的とした,ビデオモーメント検索(VMR)の課題に取り組む。
既存の手法は主に複雑な相互モーダル相互作用によるクエリとモーメントのマッチング関係をモデル化する。
本稿では,クエリとビデオコンテンツが予測に与える影響を捉えるために,構造因果モデルを構築する因果性に着想を得たVMRフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-03T01:33:26Z) - Video Anomaly Detection By The Duality Of Normality-Granted Optical Flow [1.8065361710947974]
正規性付与光流の双対性によって異常を正常なものと区別する。
出現運動対応方式をフレーム再構成から予測まで拡張する。
論文 参考訳(メタデータ) (2021-05-10T12:25:00Z) - Local Anomaly Detection in Videos using Object-Centric Adversarial
Learning [12.043574473965318]
本稿では,ビデオ中のフレームレベルの局所異常を検出するために,オブジェクト領域のみを必要とする2段階のオブジェクト中心対向フレームワークを提案する。
第1段階は、現在の外観と、通常と見なされる場面における物体の過去の勾配画像との対応を学習することで、現在の外観から過去の勾配を生成できるか、逆から生成することができる。
第2段階は、実際の画像と生成された画像(外観と過去の勾配)の間の部分再構成誤差を通常の物体の挙動で抽出し、対向的に判別器を訓練する。
論文 参考訳(メタデータ) (2020-11-13T02:02:37Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z) - Spatio-Temporal Graph for Video Captioning with Knowledge Distillation [50.034189314258356]
空間と時間におけるオブジェクトの相互作用を利用したビデオキャプションのためのグラフモデルを提案する。
我々のモデルは解釈可能なリンクを構築し、明示的な視覚的グラウンドを提供することができる。
オブジェクト数の変動による相関を回避するため,オブジェクト認識型知識蒸留機構を提案する。
論文 参考訳(メタデータ) (2020-03-31T03:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。