論文の概要: EVAL: Explainable Video Anomaly Localization
- arxiv url: http://arxiv.org/abs/2212.07900v1
- Date: Thu, 15 Dec 2022 15:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 17:19:47.496024
- Title: EVAL: Explainable Video Anomaly Localization
- Title(参考訳): EVAL: 説明可能なビデオ異常ローカライゼーション
- Authors: Ashish Singh, Michael J. Jones, Erik Learned-Miller
- Abstract要約: 物体とその動きの一般的な表現を学習し、これらの表現を用いて、特定のシーンの高レベルな位置依存モデルを構築する。
私たちのアプローチは説明がつきます。私たちのハイレベルな外観とモーション機能は、ビデオの一部が正常または異常に分類される理由を人間に理解できない理由を与えます。
- 参考スコア(独自算出の注目度): 3.21359455541169
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We develop a novel framework for single-scene video anomaly localization that
allows for human-understandable reasons for the decisions the system makes. We
first learn general representations of objects and their motions (using deep
networks) and then use these representations to build a high-level,
location-dependent model of any particular scene. This model can be used to
detect anomalies in new videos of the same scene. Importantly, our approach is
explainable - our high-level appearance and motion features can provide
human-understandable reasons for why any part of a video is classified as
normal or anomalous. We conduct experiments on standard video anomaly detection
datasets (Street Scene, CUHK Avenue, ShanghaiTech and UCSD Ped1, Ped2) and show
significant improvements over the previous state-of-the-art.
- Abstract(参考訳): 我々は,システムが行う決定に対して人間に理解可能な理由を与える,単一シーン映像の異常な位置決めのための新しいフレームワークを開発する。
まず、オブジェクトとその動作の一般的な表現(ディープネットワークを用いて)を学び、次にこれらの表現を使用して、特定のシーンの高レベルな位置依存モデルを構築する。
このモデルは、同じシーンの新しいビデオの異常を検出するために使用できる。
私たちのハイレベルな外観とモーション機能は、ビデオのどの部分も正常か異常かの理由を人間に理解しやすい理由を提供することができます。
我々は,標準的な映像異常検出データセット(street scene, cuhk avenue, shanghaitech, ucsd ped1, ped2)について実験を行い,従来より大幅に改善した。
関連論文リスト
- Learn Suspected Anomalies from Event Prompts for Video Anomaly Detection [49.91075101563298]
イベントプロンプトから疑わしい異常の学習を導くための新しい枠組みが提案されている。
これにより、新しいマルチプロンプト学習プロセスにより、すべてのビデオの視覚的セマンティックな特徴を制限できる。
提案手法はAPやAUCといった最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-02T10:42:47Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Explainable Anomaly Detection in Images and Videos: A Survey [52.646060548718786]
画像やビデオを含む視覚データの異常検出とローカライゼーションは、機械学習のアカデミックと実世界のシナリオの適用において非常に重要である。
近年の視覚異常検出技術の急速な発展にもかかわらず、これらのブラックボックスモデルの解釈や、なぜ異常を区別できるのかの合理的な説明は乏しい。
本稿では,説明可能な視覚異常検出法に焦点をあてた最初の調査を行う。
論文 参考訳(メタデータ) (2023-02-13T20:17:41Z) - Contracting Skeletal Kinematics for Human-Related Video Anomaly
Detection [58.661899246497896]
COSKADは、人間の骨格の動きをグラフ畳み込みネットワークによって符号化する新しいモデルである。
ビデオ異常検出のために、SKeletal埋め込みを最小体積の潜在超球面に抽出する。
すべての変種は、最新のUBnormalデータセットで最先端のデータセットを上回っている。
論文 参考訳(メタデータ) (2023-01-23T15:32:27Z) - Multi-Contextual Predictions with Vision Transformer for Video Anomaly
Detection [22.098399083491937]
ビデオの時間的文脈を理解することは、異常検出において重要な役割を果たす。
我々は3つの異なる文脈予測ストリームを持つトランスモデルを設計する。
連続する正常フレームの欠落フレームの予測を学習することにより、ビデオ内の様々な正常パターンを効果的に学習することができる。
論文 参考訳(メタデータ) (2022-06-17T05:54:31Z) - Approaches Toward Physical and General Video Anomaly Detection [0.0]
ビデオにおける異常検出は、多くの製造、保守、実生活環境における誤動作の自動検出を可能にする。
6つの異なるビデオクラスを含む物理異常軌道(Physal Anomalous Trajectory)データセットを紹介する。
我々は、高度に可変なシーンで異常なアクティビティを発見すべきという、さらに難しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-12-14T18:57:44Z) - Sensing Anomalies like Humans: A Hominine Framework to Detect Abnormal
Events from Unlabeled Videos [48.15740415466055]
ビデオ異常検出(VAD)は、ビデオ分析において常に重要なトピックである。
我々は、人間が異常を感知する方法にインスパイアされ、教師なしとエンドツーエンドの両方のVADを可能にするホミニンフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-04T11:31:57Z) - Predicting Next Local Appearance for Video Anomaly Detection [12.800599155185996]
本研究では,シーンの次のフレームにおいて,普通に振る舞う物体の出現を予測することによって,時間的局所的な外観変化を学習する逆向きの枠組みを提案する。
異常な振る舞いのある物体が存在する場合、その物体の現実と予測される次の出現の間の再構成誤差は異常の可能性を示唆する。
提案手法は,既存の最先端技術と競合すると同時に,トレーニングと推論の両面において極めて高速であり,映像シーンの非表示化に優れる。
論文 参考訳(メタデータ) (2021-06-10T21:26:07Z) - Weakly Supervised Video Anomaly Detection via Center-guided
Discriminative Learning [25.787860059872106]
監視ビデオの異常検出は、異常なビデオコンテンツと持続時間の多様性のために難しい作業です。
本稿では,トレーニング段階でビデオレベルラベルのみを必要とする異常回帰ネット(ar-net)と呼ばれる異常検出フレームワークを提案する。
本手法は,上海テクデータセットにおける映像異常検出に新たな最先端結果を与える。
論文 参考訳(メタデータ) (2021-04-15T06:41:23Z) - Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features [8.407188666535506]
既存のほとんどのメソッドはオートエンコーダを使用して、通常のビデオの再構築を学ぶ。
本稿では2つのエンコーダが暗黙的に外観と動きの特徴をモデル化する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,ITAE特徴量の正規密度推定を提案する。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
論文 参考訳(メタデータ) (2020-10-15T05:02:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。