論文の概要: Context-Aware Zero-Shot Anomaly Detection in Surveillance Using Contrastive and Predictive Spatiotemporal Modeling
- arxiv url: http://arxiv.org/abs/2508.18463v2
- Date: Wed, 27 Aug 2025 09:43:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 12:43:57.499404
- Title: Context-Aware Zero-Shot Anomaly Detection in Surveillance Using Contrastive and Predictive Spatiotemporal Modeling
- Title(参考訳): コントラストと予測時空間モデルを用いたサーベイランスにおける文脈認識ゼロショット異常検出
- Authors: Md. Rashid Shahriar Khan, Md. Abrar Hasan, Mohammod Tareq Aziz Justice,
- Abstract要約: この研究は、トレーニング中に異常な例に晒されることなく異常事象を識別する、文脈対応のゼロショット異常検出フレームワークを導入する。
提案したハイブリッドアーキテクチャは、TimeSformer、DPC、CLIPを組み合わせて、豊富な時空間特徴を抽出する。
コンテキストゲーティング機構は、シーン対応キューやグローバルビデオ機能による予測を調整することにより、意思決定をさらに強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting anomalies in surveillance footage is inherently challenging due to their unpredictable and context-dependent nature. This work introduces a novel context-aware zero-shot anomaly detection framework that identifies abnormal events without exposure to anomaly examples during training. The proposed hybrid architecture combines TimeSformer, DPC, and CLIP to model spatiotemporal dynamics and semantic context. TimeSformer serves as the vision backbone to extract rich spatial-temporal features, while DPC forecasts future representations to identify temporal deviations. Furthermore, a CLIP-based semantic stream enables concept-level anomaly detection through context-specific text prompts. These components are jointly trained using InfoNCE and CPC losses, aligning visual inputs with their temporal and semantic representations. A context-gating mechanism further enhances decision-making by modulating predictions with scene-aware cues or global video features. By integrating predictive modeling with vision-language understanding, the system can generalize to previously unseen behaviors in complex environments. This framework bridges the gap between temporal reasoning and semantic context in zero-shot anomaly detection for surveillance. The code for this research has been made available at https://github.com/NK-II/Context-Aware-Zero-Shot-Anomaly-Detection-in-Surveillance.
- Abstract(参考訳): 監視映像の異常を検出することは、予測不能で文脈に依存しない性質のため、本質的に困難である。
本研究は、トレーニング中に異常な事例に暴露することなく異常事象を識別する、文脈対応ゼロショット異常検出フレームワークを新たに導入する。
提案したハイブリッドアーキテクチャは、TimeSformer、DPC、CLIPを組み合わせて、時空間力学とセマンティックコンテキストをモデル化する。
TimeSformerは視覚のバックボーンとして、空間的特徴を豊かに抽出し、DPCは将来の表現を予測して時間的ずれを識別する。
さらに、CLIPベースのセマンティックストリームは、コンテキスト固有のテキストプロンプトによる概念レベルの異常検出を可能にする。
これらのコンポーネントはInfoNCEとCPCの損失を使って共同でトレーニングされ、視覚的な入力と時間的および意味的な表現を一致させる。
コンテキストゲーティング機構は、シーン対応キューやグローバルビデオ機能による予測を調整することにより、意思決定をさらに強化する。
予測モデリングと視覚言語理解を統合することで、複雑な環境でこれまで見られなかった振る舞いを一般化することができる。
このフレームワークは、監視のためのゼロショット異常検出において、時間的推論と意味的コンテキストのギャップを埋める。
この研究のコードはhttps://github.com/NK-II/Context-Aware-Zero-Anomaly-Anomaly-in-Surveillanceで公開されている。
関連論文リスト
- Context-aware TFL: A Universal Context-aware Contrastive Learning Framework for Temporal Forgery Localization [60.73623588349311]
本研究では,時間的フォージェリーローカライゼーションのための共通文脈対応コントラスト学習フレームワーク (UniCaCLF) を提案する。
提案手法は教師付きコントラスト学習を利用して,異常検出による偽造瞬間の検出と同定を行う。
実物と偽物との間における特徴の識別可能性の限界をさらに押し上げるために、効率的な文脈対応コントラスト符号化を導入する。
論文 参考訳(メタデータ) (2025-06-10T06:40:43Z) - Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - Harnessing Contrastive Learning and Neural Transformation for Time Series Anomaly Detection [0.0]
時系列異常検出(TSAD)は多くの産業応用において重要な役割を担っている。
コントラスト学習は、ラベルのないデータから意味のある表現を抽出する過程において、時系列領域で勢いを増している。
本研究では,学習可能な変換で強化されたウィンドウベースのコントラスト学習戦略を取り入れた新しいアプローチであるCNTを提案する。
論文 参考訳(メタデータ) (2023-04-16T21:36:19Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Temporal Attention Unit: Towards Efficient Spatiotemporal Predictive
Learning [42.22064610886404]
予測学習の一般的なフレームワークとして,エンコーダとデコーダがフレーム内の特徴をキャプチャし,中間時間モジュールがフレーム間の依存関係をキャッチする手法を提案する。
時間的モジュールを並列化するために,時間的注意をフレーム内静的な注意とフレーム間動的注意に分解する時間的注意ユニット(TAU)を提案する。
論文 参考訳(メタデータ) (2022-06-24T07:43:50Z) - An Attention-based ConvLSTM Autoencoder with Dynamic Thresholding for
Unsupervised Anomaly Detection in Multivariate Time Series [2.9685635948299995]
本稿では,異常検出と診断を行うための動的閾値保持(ACLAE-DT)フレームワークを用いた非教師付き注意型畳み込み長短期記憶(ConvLSTM)オートエンコーダを提案する。
フレームワークは、システムステータスを特徴付ける機能イメージを構築する前に、データの事前処理と強化から始まります。
構築した特徴画像は注意に基づくConvLSTMオートエンコーダに入力される。
その後、再構成エラーを計算し、統計に基づく動的しきい値決定機構により異常を検出し診断する。
論文 参考訳(メタデータ) (2022-01-23T04:01:43Z) - Exploiting Multi-Object Relationships for Detecting Adversarial Attacks
in Complex Scenes [51.65308857232767]
ディープニューラルネットワーク(DNN)をデプロイするビジョンシステムは、敵の例に弱いことが知られている。
近年の研究では、入力データの固有成分のチェックは、敵攻撃を検出するための有望な方法であることが示された。
言語モデルを用いてコンテキスト整合性チェックを行う新しい手法を開発した。
論文 参考訳(メタデータ) (2021-08-19T00:52:10Z) - Neural Contextual Anomaly Detection for Time Series [7.523820334642732]
本稿では,時系列における異常検出のためのフレームワークであるNeural Contextual Anomaly Detection (NCAD)を紹介する。
NCADは教師なし設定から教師なし設定までシームレスにスケールする。
我々は,提案手法が最先端の性能を得るための標準ベンチマークデータセットを実証的に実証した。
論文 参考訳(メタデータ) (2021-07-16T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。