論文の概要: Anomaly detection in surveillance videos using transformer based
attention model
- arxiv url: http://arxiv.org/abs/2206.01524v1
- Date: Fri, 3 Jun 2022 12:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 20:10:18.893054
- Title: Anomaly detection in surveillance videos using transformer based
attention model
- Title(参考訳): 変圧器ベースアテンションモデルを用いた監視ビデオの異常検出
- Authors: Kapil Deshpande, Narinder Singh Punn, Sanjay Kumar Sonbhadra, Sonali
Agarwal
- Abstract要約: 本研究は、トレーニングビデオにおける異常セグメントの注釈付けを避けるために、弱教師付き戦略を用いることを示唆する。
提案するフレームワークは,実世界のデータセット,すなわちShanghaiTech Campusデータセットで検証される。
- 参考スコア(独自算出の注目度): 3.2968779106235586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Surveillance footage can catch a wide range of realistic anomalies. This
research suggests using a weakly supervised strategy to avoid annotating
anomalous segments in training videos, which is time consuming. In this
approach only video level labels are used to obtain frame level anomaly scores.
Weakly supervised video anomaly detection (WSVAD) suffers from the wrong
identification of abnormal and normal instances during the training process.
Therefore it is important to extract better quality features from the available
videos. WIth this motivation, the present paper uses better quality
transformer-based features named Videoswin Features followed by the attention
layer based on dilated convolution and self attention to capture long and short
range dependencies in temporal domain. This gives us a better understanding of
available videos. The proposed framework is validated on real-world dataset
i.e. ShanghaiTech Campus dataset which results in competitive performance than
current state-of-the-art methods. The model and the code are available at
https://github.com/kapildeshpande/Anomaly-Detection-in-Surveillance-Videos
- Abstract(参考訳): 監視映像は、さまざまな現実的な異常を捉えることができる。
本研究は,時間を要するトレーニングビデオにおける異常セグメントの注釈付けを避けるために,弱教師付き戦略を用いることを提案する。
このアプローチでは、フレームレベルの異常スコアを得るためにビデオレベルラベルのみを使用する。
弱教師付きビデオ異常検出(WSVAD)は、トレーニングプロセス中に異常および正常な症例の誤識別に悩まされる。
したがって、利用可能なビデオから高品質な特徴を抽出することが重要である。
このモチベーションは,ビデオスウィン機能と呼ばれる高品質なトランスフォーマーベース機能を用いて,拡張畳み込みと自己注意に基づく注意層を用いて,時間領域における長短の依存関係をキャプチャする。
これにより、利用可能なビデオの理解を深めることができます。
提案するフレームワークは,現在の最先端手法よりも競争力のある,実世界のデータセットであるShanghaiTech Campusデータセット上で検証されている。
モデルとコードはhttps://github.com/kapildeshpande/Anomaly-Detection-in-Surveillance-Videosで公開されている。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Towards Video Anomaly Retrieval from Video Anomaly Detection: New
Benchmarks and Model [70.97446870672069]
ビデオ異常検出(VAD)はその潜在的な応用により注目されている。
Video Anomaly Retrieval (VAR)は、関連のある動画をモダリティによって実用的に検索することを目的としている。
一般的な異常データセットの上に構築されたUCFCrime-ARとXD-Violenceの2つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-07-24T06:22:37Z) - Visual anomaly detection in video by variational autoencoder [0.0]
オートエンコーダ(autoencoder)は、ボトルネック層と呼ばれる入力の潜在表現を使って入力を再現するように訓練されたニューラルネットワークである。
本稿では,畳み込み型LSTMオートエンコーダと畳み込み型LSTMオートエンコーダの性能の比較を行った。
論文 参考訳(メタデータ) (2022-03-08T06:22:04Z) - Anomaly Crossing: A New Method for Video Anomaly Detection as
Cross-domain Few-shot Learning [32.0713939637202]
ビデオ異常検出は、ビデオで発生した異常事象を特定することを目的としている。
従来のアプローチのほとんどは、教師なしまたは半教師なしの手法で通常のビデオからのみ学習する。
本稿では,ビデオの異常検出に通常のビデオと異常ビデオの両方をフル活用することで,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-12T20:49:38Z) - Weakly Supervised Video Anomaly Detection via Center-guided
Discriminative Learning [25.787860059872106]
監視ビデオの異常検出は、異常なビデオコンテンツと持続時間の多様性のために難しい作業です。
本稿では,トレーニング段階でビデオレベルラベルのみを必要とする異常回帰ネット(ar-net)と呼ばれる異常検出フレームワークを提案する。
本手法は,上海テクデータセットにおける映像異常検出に新たな最先端結果を与える。
論文 参考訳(メタデータ) (2021-04-15T06:41:23Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - A Self-Reasoning Framework for Anomaly Detection Using Video-Level
Labels [17.615297975503648]
監視ビデオにおける異常事象の検出は、画像およびビデオ処理コミュニティの間で困難かつ実践的な研究課題である。
本稿では、ビデオレベルラベルのみを用いて自己推論方式で訓練されたディープニューラルネットワークに基づく、弱い教師付き異常検出フレームワークを提案する。
提案するフレームワークは,UCF-crimeやShanghaiTech,Ped2など,公開されている実世界の異常検出データセット上で評価されている。
論文 参考訳(メタデータ) (2020-08-27T02:14:15Z) - Self-trained Deep Ordinal Regression for End-to-End Video Anomaly
Detection [114.9714355807607]
ビデオ異常検出に自己学習深層順序回帰を適用することで,既存の手法の2つの重要な限界を克服できることを示す。
我々は,手動で正規/異常データをラベル付けすることなく,共同表現学習と異常スコアリングを可能にする,エンドツーエンドのトレーニング可能なビデオ異常検出手法を考案した。
論文 参考訳(メタデータ) (2020-03-15T08:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。