論文の概要: Weakly-supervised Video Anomaly Detection with Contrastive Learning of
Long and Short-range Temporal Features
- arxiv url: http://arxiv.org/abs/2101.10030v1
- Date: Mon, 25 Jan 2021 12:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:05:48.216480
- Title: Weakly-supervised Video Anomaly Detection with Contrastive Learning of
Long and Short-range Temporal Features
- Title(参考訳): 長尺・短距離時系列特徴のコントラスト学習による弱監督映像異常検出
- Authors: Yu Tian, Guansong Pang, Yuanhong Chen, Rajvinder Singh, Johan W.
Verjans, Gustavo Carneiro
- Abstract要約: MTN-KMIL(Top-K Contrastive Multiple Instance Learning)を用いたマルチスケールテンポラルネットワークを提案する。
提案手法は,3つのベンチマークデータセットに対して,最先端の手法を大きなマージンで上回っている。
- 参考スコア(独自算出の注目度): 26.474395581531194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of weakly-supervised video anomaly
detection, in which given video-level labels for training, we aim to identify
in test videos, the snippets containing abnormal events. Although current
methods based on multiple instance learning (MIL) show effective detection
performance, they ignore important video temporal dependencies. Also, the
number of abnormal snippets can vary per anomaly video, which complicates the
training process of MIL-based methods because they tend to focus on the most
abnormal snippet -- this can cause it to mistakenly select a normal snippet
instead of an abnormal snippet, and also to fail to select all abnormal
snippets available. We propose a novel method, named Multi-scale Temporal
Network trained with top-K Contrastive Multiple Instance Learning (MTN-KMIL),
to address the issues above. The main contributions of MTN-KMIL are: 1) a novel
synthesis of a pyramid of dilated convolutions and a self-attention mechanism,
with the former capturing the multi-scale short-range temporal dependencies
between snippets and the latter capturing long-range temporal dependencies; and
2) a novel contrastive MIL learning method that enforces large margins between
the top-K normal and abnormal video snippets at the feature representation
level and anomaly score level, resulting in accurate anomaly discrimination.
Extensive experiments show that our method outperforms several state-of-the-art
methods by a large margin on three benchmark data sets (ShanghaiTech, UCF-Crime
and XD-Violence). The code is available at
https://github.com/tianyu0207/MTN-KMIL
- Abstract(参考訳): 本稿では,訓練用ビデオレベルラベルを付与して,異常事象を含むビデオの断片を識別することを目的とした,弱教師付きビデオ異常検出の問題に対処する。
マルチインスタンス学習(MIL)に基づく現在の手法は、効果的な検出性能を示すが、ビデオの時間的依存を無視する。
また、異常スニペットの数は、MILベースのメソッドのトレーニングプロセスがもっとも異常なスニペットに集中するため複雑になるので、異常スニペットの数は、異常スニペットではなく通常のスニペットを誤って選択し、利用可能なすべての異常スニペットを選択できない可能性がある。
そこで本稿では,Top-K Contrastive Multiple Instance Learning (MTN-KMIL) を用いたマルチスケールテンポラルネットワークを提案する。
The main contributions of MTN-KMIL are: 1) a novel synthesis of a pyramid of dilated convolutions and a self-attention mechanism, with the former capturing the multi-scale short-range temporal dependencies between snippets and the latter capturing long-range temporal dependencies; and 2) a novel contrastive MIL learning method that enforces large margins between the top-K normal and abnormal video snippets at the feature representation level and anomaly score level, resulting in accurate anomaly discrimination.
実験の結果,本手法は3つのベンチマークデータセット(ShanghaiTech, UCF-Crime, XD-Violence)において,最先端の手法よりも高い性能を示した。
コードはhttps://github.com/tianyu0207/MTN-KMILで入手できる。
関連論文リスト
- Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Delving into CLIP latent space for Video Anomaly Recognition [24.37974279994544]
本稿では,CLIP などの大規模言語と視覚(LLV)モデルを組み合わせた新しい手法 AnomalyCLIP を提案する。
当社のアプローチでは、通常のイベントサブスペースを特定するために、潜伏するCLIP機能空間を操作することが特に必要です。
異常フレームがこれらの方向に投影されると、それらが特定のクラスに属している場合、大きな特徴量を示す。
論文 参考訳(メタデータ) (2023-10-04T14:01:55Z) - Don't Miss Out on Novelty: Importance of Novel Features for Deep Anomaly
Detection [64.21963650519312]
異常検出(AD)は、正規性の学習モデルに適合しない観察を識別する重要なタスクである。
本稿では, 入力空間における説明不能な観測として, 説明可能性を用いた新しいAD手法を提案する。
当社のアプローチでは,複数のベンチマークにまたがる新たな最先端性を確立し,さまざまな異常な型を扱う。
論文 参考訳(メタデータ) (2023-10-01T21:24:05Z) - Weakly-Supervised Video Anomaly Detection with Snippet Anomalous
Attention [22.985681654402153]
弱教師付き異常検出のための異常注意機構を提案する。
提案手法は,擬似ラベルの監督を伴わないスニペットレベルの符号化機能を考慮したものである。
論文 参考訳(メタデータ) (2023-09-28T10:03:58Z) - Towards Video Anomaly Retrieval from Video Anomaly Detection: New
Benchmarks and Model [70.97446870672069]
ビデオ異常検出(VAD)はその潜在的な応用により注目されている。
Video Anomaly Retrieval (VAR)は、関連のある動画をモダリティによって実用的に検索することを目的としている。
一般的な異常データセットの上に構築されたUCFCrime-ARとXD-Violenceの2つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-07-24T06:22:37Z) - Unbiased Multiple Instance Learning for Weakly Supervised Video Anomaly
Detection [74.80595632328094]
弱監視ビデオ異常検出(WSVAD)における多重インスタンス学習(MIL)の優位性
We propose a new MIL framework: Unbiased MIL (UMIL) to learn unbiased anomaly features that improve WSVAD。
論文 参考訳(メタデータ) (2023-03-22T08:11:22Z) - Anomaly detection in surveillance videos using transformer based
attention model [3.2968779106235586]
本研究は、トレーニングビデオにおける異常セグメントの注釈付けを避けるために、弱教師付き戦略を用いることを示唆する。
提案するフレームワークは,実世界のデータセット,すなわちShanghaiTech Campusデータセットで検証される。
論文 参考訳(メタデータ) (2022-06-03T12:19:39Z) - Anomaly Crossing: A New Method for Video Anomaly Detection as
Cross-domain Few-shot Learning [32.0713939637202]
ビデオ異常検出は、ビデオで発生した異常事象を特定することを目的としている。
従来のアプローチのほとんどは、教師なしまたは半教師なしの手法で通常のビデオからのみ学習する。
本稿では,ビデオの異常検出に通常のビデオと異常ビデオの両方をフル活用することで,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-12T20:49:38Z) - UBnormal: New Benchmark for Supervised Open-Set Video Anomaly Detection [103.06327681038304]
本稿では,複数の仮想シーンで構成された教師付きオープンセット・ベンチマークを提案する。
既存のデータセットとは異なり、トレーニング時に画素レベルでアノテートされた異常事象を導入する。
UBnormalは最先端の異常検出フレームワークの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-11-16T17:28:46Z) - Anomaly Detection in Video Sequences: A Benchmark and Computational
Model [25.25968958782081]
本稿では,ビデオシーケンスにおける異常検出のベンチマークとして,新しい大規模異常検出(LAD)データベースを提案する。
通常のビデオクリップや異常なビデオクリップを含む2000の動画シーケンスが含まれており、クラッシュ、火災、暴力など14の異常なカテゴリーがある。
ビデオレベルラベル(異常/正常ビデオ、異常タイプ)やフレームレベルラベル(異常/正常ビデオフレーム)を含むアノテーションデータを提供し、異常検出を容易にする。
完全教師付き学習問題として異常検出を解くために,マルチタスク深層ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T06:34:38Z) - Self-trained Deep Ordinal Regression for End-to-End Video Anomaly
Detection [114.9714355807607]
ビデオ異常検出に自己学習深層順序回帰を適用することで,既存の手法の2つの重要な限界を克服できることを示す。
我々は,手動で正規/異常データをラベル付けすることなく,共同表現学習と異常スコアリングを可能にする,エンドツーエンドのトレーニング可能なビデオ異常検出手法を考案した。
論文 参考訳(メタデータ) (2020-03-15T08:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。