論文の概要: Geometry-Aware Semantic Reasoning for Training Free Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2603.13374v1
- Date: Tue, 10 Mar 2026 09:28:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.134582
- Title: Geometry-Aware Semantic Reasoning for Training Free Video Anomaly Detection
- Title(参考訳): 自由なビデオ異常検出のための幾何学的意味推論
- Authors: Ali Zia, Usman Ali, Muhammad Umer Ramzan, Hamza Abid, Abdul Rehman, Wei Xiang,
- Abstract要約: トレーニング不要なビデオ異常検出(VAD)は、教師付きアプローチに代わるスケーラブルな代替手段として最近登場した。
本稿では,自由なVADを学習するための幾何学的意味推論フレームワークMM-VADを紹介する。
MM-VADは、固定特徴比較よりも適応的なテスト時間推論として異常検出を再構成する。
- 参考スコア(独自算出の注目度): 9.337342114768942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training-free video anomaly detection (VAD) has recently emerged as a scalable alternative to supervised approaches, yet existing methods largely rely on static prompting and geometry-agnostic feature fusion. As a result, anomaly inference is often reduced to shallow similarity matching over Euclidean embeddings, leading to unstable predictions and limited interpretability, especially in complex or hierarchically structured scenes. We introduce MM-VAD, a geometry-aware semantic reasoning framework for training free VAD that reframes anomaly detection as adaptive test-time inference rather than fixed feature comparison. Our approach projects caption-derived scene representations into hyperbolic space to better preserve hierarchical structure and performs anomaly assessment through an adaptive question answering process over a frozen large language model. A lightweight, learnable prompt is optimised at test time using an unsupervised confidence-sparsity objective, enabling context-specific calibration without updating any backbone parameters. To further ground semantic predictions in visual evidence, we incorporate a covariance-aware Mahalanobis refinement that stabilises cross-modal alignment. Across four benchmarks, MM-VAD consistently improves over prior training-free methods, achieving 90.03% AUC on XD-Violence and 83.24%, 96.95%, and 98.81% on UCF-Crime, ShanghaiTech, and UCSD Ped2, respectively. Our results demonstrate that geometry-aware representation and adaptive semantic calibration provide a principled and effective alternative to static Euclidean matching in training-free VAD.
- Abstract(参考訳): トレーニング不要なビデオ異常検出(VAD)は、教師付きアプローチに代わるスケーラブルな代替手段として最近登場したが、既存の手法は主に静的プロンプトと幾何学に依存しない特徴融合に依存している。
その結果、異常な推論はしばしばユークリッドの埋め込みよりも浅い類似性マッチングに還元され、不安定な予測と限定的な解釈可能性、特に複雑または階層的な構成の場面で生じる。
固定特徴比較よりも適応的なテスト時間推論として異常検出を再構成する自由なVADをトレーニングするための幾何学的意味推論フレームワークMM-VADを紹介する。
提案手法は,字幕由来のシーン表現を双曲空間に投影し,階層構造をよりよく保存し,凍結した大言語モデル上で適応的な質問応答プロセスを通じて異常評価を行う。
軽量で学習可能なプロンプトは、教師なしの信頼性とスパーシティの目標を使用してテスト時に最適化され、バックボーンパラメータを更新することなく、コンテキスト固有のキャリブレーションを可能にする。
視覚的エビデンスにおけるセマンティックな予測をさらに基礎にするため、共分散を意識したマハラノビスの洗練を取り入れ、モーダルなアライメントを安定化する。
4つのベンチマークで、MM-VADはXD-Violenceで90.03% AUC、UCF-Crimeで83.24%、96.95%、UCSD Ped2で98.81%を達成している。
以上の結果から,幾何認識表現と適応的セマンティックキャリブレーションは,学習自由なVADにおける静的ユークリッドマッチングの原理的かつ効果的な代替手段であることが示された。
関連論文リスト
- IoUCert: Robustness Verification for Anchor-based Object Detectors [58.35703549470485]
IoUCertは、アンカーベースのオブジェクト検出アーキテクチャにおいて、これらのボトルネックを克服するために設計された、新しい形式的検証フレームワークである。
本手法は, SSD, YOLOv2, YOLOv3など, 現実的なアンカーベースモデルの各種入力摂動に対するロバスト性検証を可能にする。
論文 参考訳(メタデータ) (2026-03-03T14:36:46Z) - Optimal training-conditional regret for online conformal prediction [20.643619398558315]
本研究では,未知分布のドリフトを受ける非定常データストリームのオンラインコンフォメーション予測について検討する。
具体的には、急激な変化点と滑らかなドリフトの2種類の分散シフトを持つ独立に生成されたデータに焦点を当てる。
我々は,オンライン完全共形アルゴリズムにおいて,予測セットの適切な制約の下でミニマックス下限と一致する非漸近的後悔保証を確立する。
論文 参考訳(メタデータ) (2026-02-18T15:31:15Z) - Not All Preferences Are Created Equal: Stability-Aware and Gradient-Efficient Alignment for Reasoning Models [52.48582333951919]
ポリシー更新の信号対雑音比を最大化することにより、アライメントの信頼性を高めるために設計された動的フレームワークを提案する。
SAGE(Stability-Aware Gradient Efficiency)は、モデル能力に基づいて候補プールをリフレッシュする粗いきめ細かいカリキュラムメカニズムを統合する。
複数の数学的推論ベンチマークの実験により、SAGEは収束を著しく加速し、静的ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2026-02-01T12:56:10Z) - Invariance on Manifolds: Understanding Robust Visual Representations for Place Recognition [19.200074425090595]
本稿では,2次幾何統計フレームワークを提案する。
提案手法では、固定されたトレーニング済みのバックボーン上に構築されたトレーニング不要のフレームワークを導入し、パラメータ更新なしで強力なゼロショット一般化を実現する。
論文 参考訳(メタデータ) (2026-01-31T18:12:29Z) - Forward Consistency Learning with Gated Context Aggregation for Video Anomaly Detection [17.79982215633934]
ビデオ異常検出(VAD)は、リアルタイム監視システムにおける各種イベントの正常パターンからの偏差を測定することを目的としている。
既存のVAD手法の多くは、リソース制限されたエッジデバイスへの実現可能性を制限するため、極端な精度を追求するために大規模なモデルに依存している。
本稿では,Gatedコンテキストアグリゲーションを用いたフォワード整合学習を実現する軽量なVADモデルFoGAを紹介する。
論文 参考訳(メタデータ) (2026-01-26T04:35:31Z) - Adaptive Learning Guided by Bias-Noise-Alignment Diagnostics [0.7519872646378835]
本稿では,誤り適応進化を明示的にモデル化する診断駆動学習フレームワークを提案する。
これらの診断は、損失または時間差(TD)誤差軌跡の軽量統計からオンラインで計算される。
論文 参考訳(メタデータ) (2025-12-30T19:57:52Z) - Adaptive Dual Uncertainty Optimization: Boosting Monocular 3D Object Detection under Test-Time Shifts [80.32933059529135]
TTA(Test-Time Adaptation)メソッドが出現し、推論中にターゲット分布に適応する。
我々は、堅牢なM3ODの両不確実性を共同で最小化するために設計された、最初のTTAフレームワークであるDual Uncertainity Optimization (DUO)を提案する。
並列に,明瞭な意味的手がかりを持つ領域における幾何学的コヒーレンスを保存する意味認識型正規場制約を設計する。
論文 参考訳(メタデータ) (2025-08-28T07:09:21Z) - Adaptive Conformal Inference by Betting [51.272991377903274]
データ生成プロセスについて仮定することなく適応型共形推論の問題を考察する。
適応型共形推論のための既存のアプローチは、オンライン勾配勾配の変種を用いたピンボール損失の最適化に基づいている。
本稿では,パラメータフリーなオンライン凸最適化手法を利用した適応型共形推論手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T18:42:08Z) - Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。