論文の概要: MGFN: Magnitude-Contrastive Glance-and-Focus Network for
Weakly-Supervised Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2211.15098v1
- Date: Mon, 28 Nov 2022 07:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 18:38:23.921108
- Title: MGFN: Magnitude-Contrastive Glance-and-Focus Network for
Weakly-Supervised Video Anomaly Detection
- Title(参考訳): MGFN:弱スーパービジョンビデオ異常検出のためのマグニチュードコントラストGlance-and-Focusネットワーク
- Authors: Yingxian Chen, Zhengzhe Liu, Baoheng Zhang, Wilton Fok, Xiaojuan Qi,
Yik-Chung Wu
- Abstract要約: そこで本稿では,空間時間情報を統合して高精度な異常検出を行う新しい視点・焦点ネットワークを提案する。
異常の程度を表すために特徴量を使用する既存のアプローチは、通常、シーンのバリエーションの影響を無視する。
本稿では,異常検出のための特徴量の識別性を高めるため,特徴増幅機構とマグニチュードコントラスト損失を提案する。
- 参考スコア(独自算出の注目度): 39.923871347007875
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Weakly supervised detection of anomalies in surveillance videos is a
challenging task. Going beyond existing works that have deficient capabilities
to localize anomalies in long videos, we propose a novel glance and focus
network to effectively integrate spatial-temporal information for accurate
anomaly detection. In addition, we empirically found that existing approaches
that use feature magnitudes to represent the degree of anomalies typically
ignore the effects of scene variations, and hence result in sub-optimal
performance due to the inconsistency of feature magnitudes across scenes. To
address this issue, we propose the Feature Amplification Mechanism and a
Magnitude Contrastive Loss to enhance the discriminativeness of feature
magnitudes for detecting anomalies. Experimental results on two large-scale
benchmarks UCF-Crime and XD-Violence manifest that our method outperforms
state-of-the-art approaches.
- Abstract(参考訳): 監視ビデオにおける異常検出の微妙な監視は難しい課題だ。
長編ビデオに異常をローカライズする能力に欠ける既存の作品以外にも,空間的時間的情報を効率的に統合して正確な異常検出を行う新しい視点・フォーカスネットワークを提案する。
さらに,異常度を表すために特徴量を用いた既存手法では,シーンの変動の影響を無視することが一般的であり,その結果,シーン間の特徴量の不整合による準最適性能が得られた。
この問題に対処するため,異常検出のための特徴量の識別性を高めるために,特徴増幅機構とマグニチュードコントラスト損失を提案する。
UCF-Crime と XD-Violence の2つの大規模ベンチマークの実験結果から,本手法は最先端の手法よりも優れていることが示された。
関連論文リスト
- Vision-Language Models Assisted Unsupervised Video Anomaly Detection [3.1095294567873606]
異常サンプルは教師なし学習手法における重要な課題を示す。
提案手法では,大規模言語モデルの推論能力を活用したモーダル事前学習モデルを用いる。
本手法は,高次元視覚特徴を低次元意味的特徴にマッピングすることにより,教師なし異常検出の解釈可能性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-09-21T11:48:54Z) - Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - GlanceVAD: Exploring Glance Supervision for Label-efficient Video
Anomaly Detection [36.73022075416943]
本稿では,異常検出精度とアノテーションコストのバランスを改善するために,"glance annotations"と呼ばれる新しいラベリングパラダイムを提案する。
本手法の有効性を評価するため,UCF-Crime と XD-Violence の2つの標準ビデオ異常検出データセットに対して,視線アノテーションを手動でアノテートする。
また,Ssianカーネルを基本単位として時間的異常分布を構成するGlanceVAD法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:57:10Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Prototypical Residual Networks for Anomaly Detection and Localization [80.5730594002466]
本稿では,PRN(Prototypeal Residual Network)というフレームワークを提案する。
PRNは、異常領域の分割マップを正確に再構築するために、異常領域と正常パターンの間の様々なスケールとサイズの特徴的残差を学習する。
異常を拡大・多様化するために,見かけの相違と外観の相違を考慮に入れた様々な異常発生戦略を提示する。
論文 参考訳(メタデータ) (2022-12-05T05:03:46Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Video Anomaly Detection by Estimating Likelihood of Representations [21.879366166261228]
ビデオ異常は、モーション表現、オブジェクトのローカライゼーション、アクション認識など、多くのサブタスクを解決するため、困難なタスクである。
伝統的に、この課題に対する解決策は、これらの特徴の空間的接続を無視しながら、ビデオフレームとその低次元特徴のマッピングに焦点を当ててきた。
最近のソリューションでは、K-Meansのようなハードクラスタリング技術を用いてこれらの空間的接続を分析することや、潜伏した特徴を一般的な理解にマップするためにニューラルネットワークを適用することに焦点を当てている。
潜在特徴空間における映像異常を解決するために,このタスクを密度推定問題に転送するための深い確率モデルを提案する。
論文 参考訳(メタデータ) (2020-12-02T19:16:22Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Localizing Anomalies from Weakly-Labeled Videos [45.58643708315132]
Weakly Supervised Anomaly Localization (WSAL)法を提案する。
異常映像の出現差にインスパイアされ, 隣接する時間領域の進化を異常映像の局所化のために評価した。
提案手法は,UCF-CrimeおよびTADデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-08-20T12:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。