論文の概要: Multiple Instance-Based Video Anomaly Detection using Deep Temporal
Encoding-Decoding
- arxiv url: http://arxiv.org/abs/2007.01548v2
- Date: Tue, 5 Jan 2021 05:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:39:02.906985
- Title: Multiple Instance-Based Video Anomaly Detection using Deep Temporal
Encoding-Decoding
- Title(参考訳): 深部テンポラルエンコーディングを用いたマルチインスタンスビデオ異常検出
- Authors: Ammar Mansoor Kamoona, Amirali Khodadadian Gosta, Alireza
Bab-Hadiashar, Reza Hoseinnezhad
- Abstract要約: 本稿では,監視ビデオにおける異常検出のための時間的深部符号化復号化手法を提案する。
提案手法はトレーニング期間中に異常ビデオクリップと正常ビデオクリップの両方を使用する。
提案手法は,ビデオ監視アプリケーションにおける異常検出の最先端ソリューションと同等かそれ以上に動作することを示す。
- 参考スコア(独自算出の注目度): 5.255783459833821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a weakly supervised deep temporal encoding-decoding
solution for anomaly detection in surveillance videos using multiple instance
learning. The proposed approach uses both abnormal and normal video clips
during the training phase which is developed in the multiple instance framework
where we treat video as a bag and video clips as instances in the bag. Our main
contribution lies in the proposed novel approach to consider temporal relations
between video instances. We deal with video instances (clips) as a sequential
visual data rather than independent instances. We employ a deep temporal and
encoder network that is designed to capture spatial-temporal evolution of video
instances over time. We also propose a new loss function that is smoother than
similar loss functions recently presented in the computer vision literature,
and therefore; enjoys faster convergence and improved tolerance to local minima
during the training phase. The proposed temporal encoding-decoding approach
with modified loss is benchmarked against the state-of-the-art in simulation
studies. The results show that the proposed method performs similar to or
better than the state-of-the-art solutions for anomaly detection in video
surveillance applications.
- Abstract(参考訳): 本稿では,複数インスタンス学習を用いた監視ビデオにおける異常検出のための,弱教師付き深時間符号化復号法を提案する。
提案手法では,ビデオクリップをバッグとして扱い,ビデオクリップをバッグ内のインスタンスとして扱うマルチインスタンスフレームワークで開発されたトレーニングフェーズにおいて,異常なビデオクリップと正常なビデオクリップの両方を使用する。
我々の主な貢献は、ビデオインスタンス間の時間的関係を検討するための新しいアプローチである。
ビデオインスタンス(clips)を独立したインスタンスではなく、シーケンシャルなビジュアルデータとして扱います。
時間とともにビデオインスタンスの空間的-時間的進化を捉えるように設計された、深い時間的およびエンコーダネットワークを採用している。
また,コンピュータビジョン文献に最近提示された類似の損失関数よりも滑らかな新たな損失関数を提案する。
修正損失を伴う時間符号化復号法をシミュレーション研究の最先端技術に対してベンチマークした。
提案手法は,ビデオ監視アプリケーションにおける異常検出の最先端ソリューションと同等かそれ以上に動作することを示す。
関連論文リスト
- Patch Spatio-Temporal Relation Prediction for Video Anomaly Detection [19.643936110623653]
ビデオ異常検出(VAD)は、特定のコンテキストと時間枠内の異常を識別することを目的としている。
近年の深層学習に基づくVADモデルは,高解像度フレームの生成によって有望な結果を示した。
本稿では, パッチ間関係予測タスクを通じて, VADの自己教師型学習手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T03:07:16Z) - Towards Video Anomaly Retrieval from Video Anomaly Detection: New
Benchmarks and Model [70.97446870672069]
ビデオ異常検出(VAD)はその潜在的な応用により注目されている。
Video Anomaly Retrieval (VAR)は、関連のある動画をモダリティによって実用的に検索することを目的としている。
一般的な異常データセットの上に構築されたUCFCrime-ARとXD-Violenceの2つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-07-24T06:22:37Z) - Anomaly detection in surveillance videos using transformer based
attention model [3.2968779106235586]
本研究は、トレーニングビデオにおける異常セグメントの注釈付けを避けるために、弱教師付き戦略を用いることを示唆する。
提案するフレームワークは,実世界のデータセット,すなわちShanghaiTech Campusデータセットで検証される。
論文 参考訳(メタデータ) (2022-06-03T12:19:39Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Semi-Supervised Action Recognition with Temporal Contrastive Learning [50.08957096801457]
2つの異なる速度でラベル付きビデオを用いて2経路の時間的コントラストモデルを学習する。
我々は最先端の半教師付き画像認識手法の映像拡張性能を著しく向上させた。
論文 参考訳(メタデータ) (2021-02-04T17:28:35Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。