論文の概要: Predicting Next Local Appearance for Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2106.06059v1
- Date: Thu, 10 Jun 2021 21:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:17:12.533438
- Title: Predicting Next Local Appearance for Video Anomaly Detection
- Title(参考訳): 映像異常検出における次の局所出現予測
- Authors: Pankaj Raj Roy, Guillaume-Alexandre Bilodeau and Lama Seoud
- Abstract要約: 本研究では,シーンの次のフレームにおいて,普通に振る舞う物体の出現を予測することによって,時間的局所的な外観変化を学習する逆向きの枠組みを提案する。
異常な振る舞いのある物体が存在する場合、その物体の現実と予測される次の出現の間の再構成誤差は異常の可能性を示唆する。
提案手法は,既存の最先端技術と競合すると同時に,トレーニングと推論の両面において極めて高速であり,映像シーンの非表示化に優れる。
- 参考スコア(独自算出の注目度): 12.800599155185996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a local anomaly detection method in videos. As opposed to most
existing methods that are computationally expensive and are not very
generalizable across different video scenes, we propose an adversarial
framework that learns the temporal local appearance variations by predicting
the appearance of a normally behaving object in the next frame of a scene by
only relying on its current and past appearances. In the presence of an
abnormally behaving object, the reconstruction error between the real and the
predicted next appearance of that object indicates the likelihood of an
anomaly. Our method is competitive with the existing state-of-the-art while
being significantly faster for both training and inference and being better at
generalizing to unseen video scenes.
- Abstract(参考訳): ビデオに局所異常検出手法を提案する。
計算コストが高く,異なる映像シーンではあまり一般化できない既存の手法とは対照的に,シーンの次のフレームにおける通常の振る舞いオブジェクトの出現を,現在と過去の外観にのみ依存して予測することにより,時間的局所的な外観変化を学習する逆向きのフレームワークを提案する。
異常な振る舞いのある物体が存在する場合、その物体の現実と予測される次の出現の間の再構成誤差は異常の可能性を示唆する。
提案手法は,既存の最先端技術と競合すると同時に,トレーニングと推論の両面において極めて高速であり,映像シーンの可視化に優れる。
関連論文リスト
- Unveiling Context-Related Anomalies: Knowledge Graph Empowered Decoupling of Scene and Action for Human-Related Video Anomaly Detection [29.900229206335908]
人間関連ビデオにおける異常の検出は、監視アプリケーションにとって不可欠である。
現在の手法は外見に基づく技術とアクションに基づく技術に依存している。
ヒューマン関連ビデオ異常検出(DecoAD)のためのデカップリングに基づく新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-09-05T04:13:13Z) - Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - Latent Spatiotemporal Adaptation for Generalized Face Forgery Video Detection [22.536129731902783]
顔画像の一般的な検出を容易にするためのLatemporal Spatio(LAST)アプローチを提案する。
まず、各フレームの局所的な空間的特徴を抽出するために、軽量CNNを組み込むことで、ビデオの時間的パターンをモデル化する。
次に、静止空間ビデオの長期的表現を学習し、画素空間よりも多くの手がかりを含むべきである。
論文 参考訳(メタデータ) (2023-09-09T13:40:44Z) - Spatio-temporal predictive tasks for abnormal event detection in videos [60.02503434201552]
オブジェクトレベルの正規化パターンを学習するための制約付きプレテキストタスクを提案する。
我々のアプローチは、ダウンスケールの視覚的クエリとそれに対応する正常な外観と運動特性のマッピングを学習することである。
いくつかのベンチマークデータセットの実験では、異常の局所化と追跡のためのアプローチの有効性が示されている。
論文 参考訳(メタデータ) (2022-10-27T19:45:12Z) - Multi-Contextual Predictions with Vision Transformer for Video Anomaly
Detection [22.098399083491937]
ビデオの時間的文脈を理解することは、異常検出において重要な役割を果たす。
我々は3つの異なる文脈予測ストリームを持つトランスモデルを設計する。
連続する正常フレームの欠落フレームの予測を学習することにより、ビデオ内の様々な正常パターンを効果的に学習することができる。
論文 参考訳(メタデータ) (2022-06-17T05:54:31Z) - Deconfounded Video Moment Retrieval with Causal Intervention [80.90604360072831]
本研究は,ビデオ中の特定のモーメントをテキストクエリに従ってローカライズすることを目的とした,ビデオモーメント検索(VMR)の課題に取り組む。
既存の手法は主に複雑な相互モーダル相互作用によるクエリとモーメントのマッチング関係をモデル化する。
本稿では,クエリとビデオコンテンツが予測に与える影響を捉えるために,構造因果モデルを構築する因果性に着想を得たVMRフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-03T01:33:26Z) - Local Anomaly Detection in Videos using Object-Centric Adversarial
Learning [12.043574473965318]
本稿では,ビデオ中のフレームレベルの局所異常を検出するために,オブジェクト領域のみを必要とする2段階のオブジェクト中心対向フレームワークを提案する。
第1段階は、現在の外観と、通常と見なされる場面における物体の過去の勾配画像との対応を学習することで、現在の外観から過去の勾配を生成できるか、逆から生成することができる。
第2段階は、実際の画像と生成された画像(外観と過去の勾配)の間の部分再構成誤差を通常の物体の挙動で抽出し、対向的に判別器を訓練する。
論文 参考訳(メタデータ) (2020-11-13T02:02:37Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z) - Spatio-Temporal Graph for Video Captioning with Knowledge Distillation [50.034189314258356]
空間と時間におけるオブジェクトの相互作用を利用したビデオキャプションのためのグラフモデルを提案する。
我々のモデルは解釈可能なリンクを構築し、明示的な視覚的グラウンドを提供することができる。
オブジェクト数の変動による相関を回避するため,オブジェクト認識型知識蒸留機構を提案する。
論文 参考訳(メタデータ) (2020-03-31T03:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。