論文の概要: Configurable Spatial-Temporal Hierarchical Analysis for Flexible Video
Anomaly Detection
- arxiv url: http://arxiv.org/abs/2305.07328v1
- Date: Fri, 12 May 2023 09:03:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 13:38:08.117272
- Title: Configurable Spatial-Temporal Hierarchical Analysis for Flexible Video
Anomaly Detection
- Title(参考訳): フレキシブルビデオ異常検出のための空間時空間階層解析
- Authors: Kai Cheng, Xinhua Zeng, Yang Liu, Tian Wang, Chengxin Pang, Jing Teng,
Zhaoyang Xia, and Jing Liu
- Abstract要約: ビデオ異常検出(VAD)は、産業監視、セキュリティシステム、交通制御において非常に実践的な課題である。
本研究では,時空間階層型アーキテクチャ (STHA) を,様々な異常を柔軟に検出するアーキテクチャとして設計する。
我々は3つのベンチマークで実験を行い、広範囲な解析を行い、本手法が最先端の手法に匹敵する性能を示した。
- 参考スコア(独自算出の注目度): 10.956907116728267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video anomaly detection (VAD) is a vital task with great practical
applications in industrial surveillance, security system, and traffic control.
Unlike previous unsupervised VAD methods that adopt a fixed structure to learn
normality without considering different detection demands, we design a
spatial-temporal hierarchical architecture (STHA) as a configurable
architecture to flexibly detect different degrees of anomaly. The comprehensive
structure of the STHA is delineated into a tripartite hierarchy, encompassing
the following tiers: the stream level, the stack level, and the block level.
Specifically, we design several auto-encoder-based blocks that possess varying
capacities for extracting normal patterns. Then, we stack blocks according to
the complexity degrees with both intra-stack and inter-stack residual links to
learn hierarchical normality gradually. Considering the multisource knowledge
of videos, we also model the spatial normality of video frames and temporal
normality of RGB difference by designing two parallel streams consisting of
stacks. Thus, STHA can provide various representation learning abilities by
expanding or contracting hierarchically to detect anomalies of different
degrees. Since the anomaly set is complicated and unbounded, our STHA can
adjust its detection ability to adapt to the human detection demands and the
complexity degree of anomaly that happened in the history of a scene. We
conduct experiments on three benchmarks and perform extensive analysis, and the
results demonstrate that our method performs comparablely to the
state-of-the-art methods. In addition, we design a toy dataset to prove that
our model can better balance the learning ability to adapt to different
detection demands.
- Abstract(参考訳): ビデオ異常検出(VAD)は、産業監視、セキュリティシステム、交通制御において非常に実践的な課題である。
異なる検出要求を考慮せずに正規性を学習するための固定構造を採用する従来の教師なしVAD手法とは異なり、異なる異常度を柔軟に検出する構成可能なアーキテクチャとして時空間階層アーキテクチャ(STHA)を設計する。
STHAの包括的な構造は、以下の階層(ストリームレベル、スタックレベル、ブロックレベル)を含む三部構造階層に分類される。
具体的には、通常のパターンを抽出するための様々な容量を持つオートエンコーダベースのブロックを設計する。
そして、スタック内およびスタック間残差リンクの複雑さ度に応じてブロックを積み重ね、階層的正規性を徐々に学習する。
ビデオのマルチソース知識を考慮し、スタックからなる2つの並列ストリームを設計することにより、ビデオフレームの空間的正規性とRGB差の時間的正規性をモデル化する。
これにより、STHAは階層的に拡張または縮小することで様々な表現学習能力を提供し、異なる次数の異常を検出することができる。
異常セットは複雑で無拘束であるため、STHAは人間の検出要求に適応する検出能力と、シーンの歴史の中で発生した異常の複雑さの度合いを調整することができる。
3つのベンチマークで実験を行い,広範な解析を行い,本手法が最先端手法に匹敵する性能を示す。
さらに,異なる検出要求に適応する学習能力のバランスが向上することを示すために,おもちゃのデータセットを設計する。
関連論文リスト
- ARC: A Generalist Graph Anomaly Detector with In-Context Learning [62.202323209244]
ARCは汎用的なGADアプローチであり、一対一のGADモデルで様々なグラフデータセットの異常を検出することができる。
ARCはコンテキスト内学習を備えており、ターゲットデータセットからデータセット固有のパターンを直接抽出することができる。
各種領域からの複数のベンチマークデータセットに対する大規模な実験は、ARCの優れた異常検出性能、効率、一般化性を示す。
論文 参考訳(メタデータ) (2024-05-27T02:42:33Z) - USD: Unsupervised Soft Contrastive Learning for Fault Detection in Multivariate Time Series [6.055410677780381]
本研究では,データ拡張とソフトコントラスト学習の組み合わせを導入し,より正確に状態行動の多面的特性を捉えることを目的としている。
この二重戦略は、正常な状態と異常な状態を区別するモデルの能力を著しく向上させ、複数のデータセットと設定で障害検出性能が著しく向上する。
論文 参考訳(メタデータ) (2024-05-25T14:48:04Z) - Generating and Reweighting Dense Contrastive Patterns for Unsupervised
Anomaly Detection [59.34318192698142]
我々は、先行のない異常発生パラダイムを導入し、GRADと呼ばれる革新的な教師なし異常検出フレームワークを開発した。
PatchDiffは、様々な種類の異常パターンを効果的に公開する。
MVTec ADとMVTec LOCOデータセットの両方の実験も、前述の観測をサポートする。
論文 参考訳(メタデータ) (2023-12-26T07:08:06Z) - Unraveling the "Anomaly" in Time Series Anomaly Detection: A
Self-supervised Tri-domain Solution [89.16750999704969]
異常ラベルは時系列異常検出において従来の教師付きモデルを妨げる。
自己教師型学習のような様々なSOTA深層学習技術がこの問題に対処するために導入されている。
自己教師型3領域異常検出器(TriAD)を提案する。
論文 参考訳(メタデータ) (2023-11-19T05:37:18Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Delving into CLIP latent space for Video Anomaly Recognition [24.37974279994544]
本稿では,CLIP などの大規模言語と視覚(LLV)モデルを組み合わせた新しい手法 AnomalyCLIP を提案する。
当社のアプローチでは、通常のイベントサブスペースを特定するために、潜伏するCLIP機能空間を操作することが特に必要です。
異常フレームがこれらの方向に投影されると、それらが特定のクラスに属している場合、大きな特徴量を示す。
論文 参考訳(メタデータ) (2023-10-04T14:01:55Z) - Hierarchical Spatio-Temporal Representation Learning for Gait
Recognition [6.877671230651998]
歩行認識は、個人を独自の歩行スタイルで識別する生体計測技術である。
粗いものから細かいものまで歩行特徴を抽出する階層的時間的表現学習フレームワークを提案する。
本手法は,モデル精度と複雑性の適切なバランスを維持しつつ,最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2023-07-19T09:30:00Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - CSCAD: Correlation Structure-based Collective Anomaly Detection in
Complex System [11.739889613196619]
大規模システムにおける高次元異常検出問題に対する相関構造に基づく集団異常検出モデルを提案する。
本フレームワークでは,変分オートエンコーダを組み合わせたグラフ畳み込みネットワークを用いて,特徴空間の相関とサンプルの再構成不足を共同で活用する。
異常判別ネットワークは、低異常度サンプルを正のサンプルとして、高異常度サンプルを負のサンプルとしてトレーニングすることができる。
論文 参考訳(メタデータ) (2021-05-30T09:28:25Z) - Anomaly Detection in Video via Self-Supervised and Multi-Task Learning [113.81927544121625]
ビデオにおける異常検出は、コンピュータビジョンの問題である。
本稿では,オブジェクトレベルでの自己教師型およびマルチタスク学習を通じて,ビデオ中の異常事象検出にアプローチする。
論文 参考訳(メタデータ) (2020-11-15T10:21:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。