論文の概要: Overlooked Video Classification in Weakly Supervised Video Anomaly
Detection
- arxiv url: http://arxiv.org/abs/2210.06688v1
- Date: Thu, 13 Oct 2022 03:00:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:07:31.629055
- Title: Overlooked Video Classification in Weakly Supervised Video Anomaly
Detection
- Title(参考訳): 弱監視ビデオ異常検出における見落としビデオ分類
- Authors: Weijun Tan, Qi Yao, Jingfeng Liu
- Abstract要約: 本稿では,BERT や LSTM を用いた映像分類管理の能力について検討する。
このBERTまたはLSTMにより、ビデオの全スニペットのCNN機能は、ビデオ分類に使用できる単一の機能に集約できる。
このシンプルだが強力なビデオ分類監督は、MILフレームワークに組み合わされ、3つの主要なビデオ異常検出データセットすべてに対して、驚くほどのパフォーマンス改善をもたらす。
- 参考スコア(独自算出の注目度): 4.162019309587633
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current weakly supervised video anomaly detection algorithms mostly use
multiple instance learning (MIL) or their varieties. Almost all recent
approaches focus on how to select the correct snippets for training to improve
the performance. They overlook or do not realize the power of video
classification in boosting the performance of anomaly detection. In this paper,
we study explicitly the power of video classification supervision using a BERT
or LSTM. With this BERT or LSTM, CNN features of all snippets of a video can be
aggregated into a single feature which can be used for video classification.
This simple yet powerful video classification supervision, combined into the
MIL framework, brings extraordinary performance improvement on all three major
video anomaly detection datasets. Particularly it improves the mean average
precision (mAP) on the XD-Violence from SOTA 78.84\% to new 82.10\%. The source
code is available at
https://github.com/wjtan99/BERT_Anomaly_Video_Classification.
- Abstract(参考訳): 現在の弱教師付きビデオ異常検出アルゴリズムは、主に複数のインスタンス学習(MIL)またはそれらの変種を用いる。
ほぼすべての最近のアプローチは、パフォーマンスを改善するためのトレーニングのための正しいスニペットの選択方法に焦点を当てている。
彼らは異常検出の性能を高めるのにビデオ分類の力を見逃したり、気づかなかったりする。
本稿では,BERT や LSTM を用いた映像分類管理の能力を明らかにする。
このBERTまたはLSTMにより、ビデオの全スニペットのCNN機能は、ビデオ分類に使用できる単一の機能に集約できる。
このシンプルで強力なビデオ分類の監督は、milフレームワークに組み合わされ、主要な3つのビデオ異常検出データセットすべてに驚くべきパフォーマンス改善をもたらす。
特に、XD-Violenceの平均平均精度(mAP)をSOTA 78.84\%から新しい82.10\%に改善する。
ソースコードはhttps://github.com/wjtan99/bert_anomaly_video_classificationで入手できる。
関連論文リスト
- VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Semi-supervised Active Learning for Video Action Detection [8.110693267550346]
我々はラベル付きデータとラベルなしデータの両方を利用する、新しい半教師付きアクティブラーニング手法を開発した。
提案手法は,UCF-24-101,JHMDB-21,Youtube-VOSの3種類のベンチマークデータセットに対して評価を行った。
論文 参考訳(メタデータ) (2023-12-12T11:13:17Z) - Building an Open-Vocabulary Video CLIP Model with Better Architectures,
Optimization and Data [102.0069667710562]
本稿では,CLIPを強力なゼロショットビデオ分類器に適応させるフレームワークであるOpen-VCLIP++を提案する。
我々は,Open-VCLIP++のトレーニングが,履歴データゼロで連続的な学習に欠かせないことを実証した。
提案手法は,広く使用されている3つの行動認識データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-10-08T04:46:43Z) - Anomaly detection in surveillance videos using transformer based
attention model [3.2968779106235586]
本研究は、トレーニングビデオにおける異常セグメントの注釈付けを避けるために、弱教師付き戦略を用いることを示唆する。
提案するフレームワークは,実世界のデータセット,すなわちShanghaiTech Campusデータセットで検証される。
論文 参考訳(メタデータ) (2022-06-03T12:19:39Z) - Few-Shot Video Object Detection [70.43402912344327]
本稿では,Few-Shot Video Object Detection (FSVOD) を紹介する。
fsvod-500は500のクラスからなり、各カテゴリーにクラスバランスのビデオがある。
私達のTPNおよびTMN+は共同およびエンドツーエンドの訓練されます。
論文 参考訳(メタデータ) (2021-04-30T07:38:04Z) - Cleaning Label Noise with Clusters for Minimally Supervised Anomaly
Detection [26.062659852373653]
ビデオレベルラベルのみを用いてトレーニングした弱い教師付き異常検出法を定式化する。
提案手法は UCF-crime と ShanghaiTech のデータセットでそれぞれ78.27% と84.16% のフレームレベル AUC が得られる。
論文 参考訳(メタデータ) (2021-04-30T06:03:24Z) - Less is More: ClipBERT for Video-and-Language Learning via Sparse
Sampling [98.41300980759577]
ビデオと言語の学習に対する標準的なアプローチは、オフラインで抽出された高密度ビデオ機能から学習するニューラルネットワークを規定する。
本稿では,ビデオ・言語タスクに対して,手頃なエンドツーエンド学習を可能にする汎用フレームワークClipBERTを提案する。
6つのデータセットにおけるテキスト・ビデオ検索とビデオ質問応答の実験は、ClipBERTが既存の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-02-11T18:50:16Z) - VideoMix: Rethinking Data Augmentation for Video Classification [29.923635550986997]
最新のビデオアクション分類器は、しばしばオーバーフィットに苦しむ。
オーバーフィッティング問題に対処するための最近のデータ拡張戦略が報告されている。
VideoMixは、モデルがオブジェクトやシーンのバイアスを越えて学習し、アクション認識のためのより堅牢な手がかりを抽出する。
論文 参考訳(メタデータ) (2020-12-07T05:40:33Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z) - VideoSSL: Semi-Supervised Learning for Video Classification [30.348819309923098]
畳み込みニューラルネットワーク(CNN)を用いたビデオ分類ビデオSSLのための半教師付き学習手法を提案する。
大規模な注釈付きデータセットへの依存を最小限に抑えるため,提案手法は少数のラベル付きサンプルから学習する。
ラベルのない例からの案内信号の監督の下,CNNは印象的な性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-02-29T07:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。