論文の概要: EVAL: Explainable Video Anomaly Localization
- arxiv url: http://arxiv.org/abs/2212.07900v1
- Date: Thu, 15 Dec 2022 15:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 17:19:47.496024
- Title: EVAL: Explainable Video Anomaly Localization
- Title(参考訳): EVAL: 説明可能なビデオ異常ローカライゼーション
- Authors: Ashish Singh, Michael J. Jones, Erik Learned-Miller
- Abstract要約: 物体とその動きの一般的な表現を学習し、これらの表現を用いて、特定のシーンの高レベルな位置依存モデルを構築する。
私たちのアプローチは説明がつきます。私たちのハイレベルな外観とモーション機能は、ビデオの一部が正常または異常に分類される理由を人間に理解できない理由を与えます。
- 参考スコア(独自算出の注目度): 3.21359455541169
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We develop a novel framework for single-scene video anomaly localization that
allows for human-understandable reasons for the decisions the system makes. We
first learn general representations of objects and their motions (using deep
networks) and then use these representations to build a high-level,
location-dependent model of any particular scene. This model can be used to
detect anomalies in new videos of the same scene. Importantly, our approach is
explainable - our high-level appearance and motion features can provide
human-understandable reasons for why any part of a video is classified as
normal or anomalous. We conduct experiments on standard video anomaly detection
datasets (Street Scene, CUHK Avenue, ShanghaiTech and UCSD Ped1, Ped2) and show
significant improvements over the previous state-of-the-art.
- Abstract(参考訳): 我々は,システムが行う決定に対して人間に理解可能な理由を与える,単一シーン映像の異常な位置決めのための新しいフレームワークを開発する。
まず、オブジェクトとその動作の一般的な表現(ディープネットワークを用いて)を学び、次にこれらの表現を使用して、特定のシーンの高レベルな位置依存モデルを構築する。
このモデルは、同じシーンの新しいビデオの異常を検出するために使用できる。
私たちのハイレベルな外観とモーション機能は、ビデオのどの部分も正常か異常かの理由を人間に理解しやすい理由を提供することができます。
我々は,標準的な映像異常検出データセット(street scene, cuhk avenue, shanghaitech, ucsd ped1, ped2)について実験を行い,従来より大幅に改善した。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Hawk: Learning to Understand Open-World Video Anomalies [76.9631436818573]
ビデオ異常検出(VAD)システムは、障害を自律的に監視し、識別し、手作業や関連するコストを削減できる。
我々は,インタラクティブな大規模ビジュアル言語モデル(VLM)を利用して,ビデオの異常を正確に解釈する新しいフレームワークであるHawkを紹介する。
言語記述による8000以上の異常ビデオを注釈付けし、さまざまなオープンワールドシナリオでの効果的なトレーニングを可能にしました。
論文 参考訳(メタデータ) (2024-05-27T07:08:58Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Multi-Contextual Predictions with Vision Transformer for Video Anomaly
Detection [22.098399083491937]
ビデオの時間的文脈を理解することは、異常検出において重要な役割を果たす。
我々は3つの異なる文脈予測ストリームを持つトランスモデルを設計する。
連続する正常フレームの欠落フレームの予測を学習することにより、ビデオ内の様々な正常パターンを効果的に学習することができる。
論文 参考訳(メタデータ) (2022-06-17T05:54:31Z) - Approaches Toward Physical and General Video Anomaly Detection [0.0]
ビデオにおける異常検出は、多くの製造、保守、実生活環境における誤動作の自動検出を可能にする。
6つの異なるビデオクラスを含む物理異常軌道(Physal Anomalous Trajectory)データセットを紹介する。
我々は、高度に可変なシーンで異常なアクティビティを発見すべきという、さらに難しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-12-14T18:57:44Z) - Sensing Anomalies like Humans: A Hominine Framework to Detect Abnormal
Events from Unlabeled Videos [48.15740415466055]
ビデオ異常検出(VAD)は、ビデオ分析において常に重要なトピックである。
我々は、人間が異常を感知する方法にインスパイアされ、教師なしとエンドツーエンドの両方のVADを可能にするホミニンフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-04T11:31:57Z) - Weakly Supervised Video Anomaly Detection via Center-guided
Discriminative Learning [25.787860059872106]
監視ビデオの異常検出は、異常なビデオコンテンツと持続時間の多様性のために難しい作業です。
本稿では,トレーニング段階でビデオレベルラベルのみを必要とする異常回帰ネット(ar-net)と呼ばれる異常検出フレームワークを提案する。
本手法は,上海テクデータセットにおける映像異常検出に新たな最先端結果を与える。
論文 参考訳(メタデータ) (2021-04-15T06:41:23Z) - Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features [8.407188666535506]
既存のほとんどのメソッドはオートエンコーダを使用して、通常のビデオの再構築を学ぶ。
本稿では2つのエンコーダが暗黙的に外観と動きの特徴をモデル化する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,ITAE特徴量の正規密度推定を提案する。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
論文 参考訳(メタデータ) (2020-10-15T05:02:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。