論文の概要: Anomaly Crossing: A New Method for Video Anomaly Detection as
Cross-domain Few-shot Learning
- arxiv url: http://arxiv.org/abs/2112.06320v2
- Date: Tue, 14 Dec 2021 05:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 13:11:44.672499
- Title: Anomaly Crossing: A New Method for Video Anomaly Detection as
Cross-domain Few-shot Learning
- Title(参考訳): Anomaly Crossing: クロスドメインFew-shot学習によるビデオ異常検出の新しい手法
- Authors: Guangyu Sun, Zhang Liu, Lianggong Wen, Jing Shi, Chenliang Xu
- Abstract要約: ビデオ異常検出は、ビデオで発生した異常事象を特定することを目的としている。
従来のアプローチのほとんどは、教師なしまたは半教師なしの手法で通常のビデオからのみ学習する。
本稿では,ビデオの異常検出に通常のビデオと異常ビデオの両方をフル活用することで,新たな学習パラダイムを提案する。
- 参考スコア(独自算出の注目度): 32.0713939637202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video anomaly detection aims to identify abnormal events that occurred in
videos. Since anomalous events are relatively rare, it is not feasible to
collect a balanced dataset and train a binary classifier to solve the task.
Thus, most previous approaches learn only from normal videos using unsupervised
or semi-supervised methods. Obviously, they are limited in capturing and
utilizing discriminative abnormal characteristics, which leads to compromised
anomaly detection performance. In this paper, to address this issue, we propose
a new learning paradigm by making full use of both normal and abnormal videos
for video anomaly detection. In particular, we formulate a new learning task:
cross-domain few-shot anomaly detection, which can transfer knowledge learned
from numerous videos in the source domain to help solve few-shot abnormality
detection in the target domain. Concretely, we leverage self-supervised
training on the target normal videos to reduce the domain gap and devise a meta
context perception module to explore the video context of the event in the
few-shot setting. Our experiments show that our method significantly
outperforms baseline methods on DoTA and UCF-Crime datasets, and the new task
contributes to a more practical training paradigm for anomaly detection.
- Abstract(参考訳): ビデオ異常検出は、ビデオで発生した異常事象を特定することを目的としている。
異常イベントは比較的稀であるため、バランスの取れたデータセットを収集し、タスクを解決するためにバイナリ分類器を訓練することは不可能である。
したがって、ほとんどの以前のアプローチは、教師なしまたは半教師なしの方法で通常のビデオからのみ学習する。
明らかに、これらは識別異常特性の捕捉と利用に限られており、異常検出性能が損なわれている。
本稿では,ビデオの異常検出に通常のビデオと異常ビデオの両方をフル活用して,新たな学習パラダイムを提案する。
具体的には、ソース領域内の多数のビデオから学んだ知識を伝達して、ターゲット領域における少数ショット異常検出の解決を支援することができるクロスドメイン・数ショット異常検出という新しい学習タスクを定式化する。
具体的には,対象とする通常のビデオに対する自己教師型トレーニングを活用して,ドメインギャップを減らし,メタコンテキスト認識モジュールを考案し,イベントの映像コンテキストを数ショットで探索する。
実験の結果,本手法はDoTAデータセットとUCF-Crimeデータセットのベースライン手法を著しく上回り,新しいタスクは異常検出のためのより実践的な訓練パラダイムに寄与することがわかった。
関連論文リスト
- Temporal Divide-and-Conquer Anomaly Actions Localization in Semi-Supervised Videos with Hierarchical Transformer [0.9208007322096532]
異常な行動の検出と位置決めは、セキュリティと高度な監視システムにおいて重要な役割を果たす。
本稿では,異常ビデオにおける観察行動の重要性を評価するために,階層型トランスフォーマーモデルを提案する。
本手法は, 親映像を階層的に複数の時間的児童事例に区分し, 親映像の異常の分類における子ノードの影響を計測する。
論文 参考訳(メタデータ) (2024-08-24T18:12:58Z) - Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - UBnormal: New Benchmark for Supervised Open-Set Video Anomaly Detection [103.06327681038304]
本稿では,複数の仮想シーンで構成された教師付きオープンセット・ベンチマークを提案する。
既存のデータセットとは異なり、トレーニング時に画素レベルでアノテートされた異常事象を導入する。
UBnormalは最先端の異常検出フレームワークの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-11-16T17:28:46Z) - A Critical Study on the Recent Deep Learning Based Semi-Supervised Video
Anomaly Detection Methods [3.198144010381572]
本稿では,この分野の研究者を新たな視点に紹介し,最近の深層学習に基づく半教師付きビデオ異常検出手法についてレビューする。
私たちのゴールは、より効果的なビデオ異常検出方法の開発を支援することです。
論文 参考訳(メタデータ) (2021-11-02T14:00:33Z) - Weakly Supervised Video Anomaly Detection via Center-guided
Discriminative Learning [25.787860059872106]
監視ビデオの異常検出は、異常なビデオコンテンツと持続時間の多様性のために難しい作業です。
本稿では,トレーニング段階でビデオレベルラベルのみを必要とする異常回帰ネット(ar-net)と呼ばれる異常検出フレームワークを提案する。
本手法は,上海テクデータセットにおける映像異常検出に新たな最先端結果を与える。
論文 参考訳(メタデータ) (2021-04-15T06:41:23Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z) - Few-shot Scene-adaptive Anomaly Detection [11.788539543098869]
本稿では,従来のアプローチの限界に対処するため,新しいシーン適応型異常検出問題を提案する。
私たちのゴールは、わずか数フレームの未確認シーンで異常を検出することを学ぶことです。
この新しい問題に対する信頼性の高いソリューションは、現実世界のアプリケーションに大きな可能性を秘めている。
論文 参考訳(メタデータ) (2020-07-15T17:08:46Z) - Self-trained Deep Ordinal Regression for End-to-End Video Anomaly
Detection [114.9714355807607]
ビデオ異常検出に自己学習深層順序回帰を適用することで,既存の手法の2つの重要な限界を克服できることを示す。
我々は,手動で正規/異常データをラベル付けすることなく,共同表現学習と異常スコアリングを可能にする,エンドツーエンドのトレーニング可能なビデオ異常検出手法を考案した。
論文 参考訳(メタデータ) (2020-03-15T08:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。