論文の概要: CHAD: Charlotte Anomaly Dataset
- arxiv url: http://arxiv.org/abs/2212.09258v3
- Date: Thu, 1 Jun 2023 19:21:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 20:17:28.025310
- Title: CHAD: Charlotte Anomaly Dataset
- Title(参考訳): CHAD:シャーロット異常データセット
- Authors: Armin Danesh Pazho, Ghazal Alinezhad Noghre, Babak Rahimi Ardabili,
Christopher Neff, Hamed Tabkhi
- Abstract要約: ビデオ異常検出のためのシャーロット異常データセット(CHAD)を提案する。
CHADはバウンディングボックス、アイデンティティ、各アクターのアノテーションを含む最初の異常データセットである。
4つのカメラビューと115万フレーム以上を持つCHADは、完全注釈付き異常検出データセットとしては最大である。
- 参考スコア(独自算出の注目度): 2.6774008509840996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, we have seen a significant interest in data-driven deep
learning approaches for video anomaly detection, where an algorithm must
determine if specific frames of a video contain abnormal behaviors. However,
video anomaly detection is particularly context-specific, and the availability
of representative datasets heavily limits real-world accuracy. Additionally,
the metrics currently reported by most state-of-the-art methods often do not
reflect how well the model will perform in real-world scenarios. In this
article, we present the Charlotte Anomaly Dataset (CHAD). CHAD is a
high-resolution, multi-camera anomaly dataset in a commercial parking lot
setting. In addition to frame-level anomaly labels, CHAD is the first anomaly
dataset to include bounding box, identity, and pose annotations for each actor.
This is especially beneficial for skeleton-based anomaly detection, which is
useful for its lower computational demand in real-world settings. CHAD is also
the first anomaly dataset to contain multiple views of the same scene. With
four camera views and over 1.15 million frames, CHAD is the largest fully
annotated anomaly detection dataset including person annotations, collected
from continuous video streams from stationary cameras for smart video
surveillance applications. To demonstrate the efficacy of CHAD for training and
evaluation, we benchmark two state-of-the-art skeleton-based anomaly detection
algorithms on CHAD and provide comprehensive analysis, including both
quantitative results and qualitative examination. The dataset is available at
https://github.com/TeCSAR-UNCC/CHAD.
- Abstract(参考訳): 近年,映像の特定のフレームが異常な動作を含むかどうかをアルゴリズムが判断しなければならない,映像異常検出のためのデータ駆動型ディープラーニングアプローチが注目されている。
しかし、ビデオ異常検出は特にコンテキスト固有であり、代表データセットの可用性は現実世界の精度を著しく制限する。
さらに、現在のほとんどの最先端メソッドによって報告されているメトリクスは、実際のシナリオでモデルがどのように機能するかを反映していないことが多い。
本稿では,シャーロット異常データセット(chad)について述べる。
CHADは商用駐車場における高解像度マルチカメラ異常データセットである。
フレームレベルの異常ラベルに加えて、CHADはバウンディングボックス、アイデンティティ、各アクターに対するアノテーションを含む最初の異常データセットである。
これはスケルトンに基づく異常検出に特に有用であり、実世界での計算需要の低減に有用である。
CHADは、同じシーンの複数のビューを含む最初の異常データセットである。
4つのカメラビューと115万フレーム以上のフレームを持つCHADは、静止カメラからの連続ビデオストリームから収集された個人アノテーションを含む、完全注釈付き異常検出データセットとして最大である。
トレーニングおよび評価におけるCHADの有効性を実証するため,CHADに2つの最先端スケルトンに基づく異常検出アルゴリズムをベンチマークし,定量的結果と定性検査の両方を含む包括的解析を行った。
データセットはhttps://github.com/TeCSAR-UNCC/CHADで公開されている。
関連論文リスト
- VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - ARC: A Generalist Graph Anomaly Detector with In-Context Learning [62.202323209244]
ARCは汎用的なGADアプローチであり、一対一のGADモデルで様々なグラフデータセットの異常を検出することができる。
ARCはコンテキスト内学習を備えており、ターゲットデータセットからデータセット固有のパターンを直接抽出することができる。
各種領域からの複数のベンチマークデータセットに対する大規模な実験は、ARCの優れた異常検出性能、効率、一般化性を示す。
論文 参考訳(メタデータ) (2024-05-27T02:42:33Z) - Dynamic Erasing Network Based on Multi-Scale Temporal Features for
Weakly Supervised Video Anomaly Detection [103.92970668001277]
弱教師付きビデオ異常検出のための動的消去ネットワーク(DE-Net)を提案する。
まず,異なる長さのセグメントから特徴を抽出できるマルチスケール時間モデリングモジュールを提案する。
そして,検出された異常の完全性を動的に評価する動的消去戦略を設計する。
論文 参考訳(メタデータ) (2023-12-04T09:40:11Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - A New Comprehensive Benchmark for Semi-supervised Video Anomaly
Detection and Anticipation [46.687762316415096]
我々は,43のシーン,28の異常イベント,16時間の動画を含む新しい包括的データセットNWPU Campusを提案する。
このデータセットは、最大数のシーンとクラスの異常、最長持続時間、シーン依存の異常を考慮に入れた唯一の部分を持つ、最も大きな半教師付きVADデータセットである。
本稿では,異常事象を同時に検出・予測できる新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-05-23T02:20:12Z) - Understanding the Challenges and Opportunities of Pose-based Anomaly
Detection [2.924868086534434]
ポーズベースの異常検出(Pose-based anomaly detection)は、ビデオフレームから抽出された人間のポーズを調べることによって、異常な出来事や行動を検出するビデオ分析技術である。
本研究では、ポーズに基づく異常検出の難しさをよりよく理解するために、2つのよく知られたビデオ異常データセットの特徴を分析し、定量化する。
これらの実験は、ポーズベースの異常検出と現在利用可能なデータセットをより理解する上で有益であると考えています。
論文 参考訳(メタデータ) (2023-03-09T18:09:45Z) - Adaptive graph convolutional networks for weakly supervised anomaly
detection in videos [42.3118758940767]
本稿では,映像セグメント間のコンテキスト関係をモデル化するために,弱教師付き適応グラフ畳み込みネットワーク(WAGCN)を提案する。
各セグメントの異常確率スコアを生成する際に、他のビデオセグメントが現在のセグメントに与える影響を十分に検討する。
論文 参考訳(メタデータ) (2022-02-14T06:31:34Z) - Anomaly Detection in Video Sequences: A Benchmark and Computational
Model [25.25968958782081]
本稿では,ビデオシーケンスにおける異常検出のベンチマークとして,新しい大規模異常検出(LAD)データベースを提案する。
通常のビデオクリップや異常なビデオクリップを含む2000の動画シーケンスが含まれており、クラッシュ、火災、暴力など14の異常なカテゴリーがある。
ビデオレベルラベル(異常/正常ビデオ、異常タイプ)やフレームレベルラベル(異常/正常ビデオフレーム)を含むアノテーションデータを提供し、異常検出を容易にする。
完全教師付き学習問題として異常検出を解くために,マルチタスク深層ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T06:34:38Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Unsupervised Video Anomaly Detection via Normalizing Flows with Implicit
Latent Features [8.407188666535506]
既存のほとんどのメソッドはオートエンコーダを使用して、通常のビデオの再構築を学ぶ。
本稿では2つのエンコーダが暗黙的に外観と動きの特徴をモデル化する構造である暗黙の2経路AE(ITAE)を提案する。
通常のシーンの複雑な分布については,ITAE特徴量の正規密度推定を提案する。
NFモデルは暗黙的に学習された機能を通じて正常性を学ぶことでITAEのパフォーマンスを高める。
論文 参考訳(メタデータ) (2020-10-15T05:02:02Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。