論文の概要: Interleaving One-Class and Weakly-Supervised Models with Adaptive
Thresholding for Unsupervised Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2401.13551v1
- Date: Wed, 24 Jan 2024 16:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 14:05:31.987743
- Title: Interleaving One-Class and Weakly-Supervised Models with Adaptive
Thresholding for Unsupervised Video Anomaly Detection
- Title(参考訳): 非教師なしビデオ異常検出のための適応しきい値付き一級・弱教師付きモデル
- Authors: Yongwei Nie, Hao Huang, Chengjiang Long, Qing Zhang, Pradipta Maji,
Hongmin Cai
- Abstract要約: 典型的なUnsupervised Video Anomaly Detection (UVAD) 法では、互いに擬似ラベルを生成する2つのモデルを訓練する必要がある。
UVADのためのワンクラス分類(OCC)モデルとWakly-Supervised(WS)モデルを交互に訓練する新しいインターリーブドフレームワークを提案する。
提案手法が従来の手法より優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 44.63919304001732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Without human annotations, a typical Unsupervised Video Anomaly Detection
(UVAD) method needs to train two models that generate pseudo labels for each
other. In previous work, the two models are closely entangled with each other,
and it is not known how to upgrade their method without modifying their
training framework significantly. Second, previous work usually adopts fixed
thresholding to obtain pseudo labels, however the user-specified threshold is
not reliable which inevitably introduces errors into the training process. To
alleviate these two problems, we propose a novel interleaved framework that
alternately trains a One-Class Classification (OCC) model and a
Weakly-Supervised (WS) model for UVAD. The OCC or WS models in our method can
be easily replaced with other OCC or WS models, which facilitates our method to
upgrade with the most recent developments in both fields. For handling the
fixed thresholding problem, we break through the conventional cognitive
boundary and propose a weighted OCC model that can be trained on both normal
and abnormal data. We also propose an adaptive mechanism for automatically
finding the optimal threshold for the WS model in a loose to strict manner.
Experiments demonstrate that the proposed UVAD method outperforms previous
approaches.
- Abstract(参考訳): 人間のアノテーションがなければ、典型的なUnsupervised Video Anomaly Detection (UVAD) 法では、互いに擬似ラベルを生成する2つのモデルを訓練する必要がある。
前回の作業では、2つのモデルが密接に絡み合っており、トレーニングフレームワークを大幅に変更することなく、どのようにメソッドをアップグレードするかは分かっていない。
第2に、従来の作業では固定しきい値を採用して擬似ラベルを取得するが、ユーザ指定しきい値が信頼できないため、必然的にトレーニングプロセスにエラーが発生する。
これら2つの問題を緩和するために,1クラス分類(OCC)モデルとWakly-Supervised(WS)モデルを交互にトレーニングする新しいインターリーブドフレームワークを提案する。
私たちのメソッドの OCC または WS モデルは、他の OCC または WS モデルに簡単に置き換えることができる。
固定しきい値問題に対処するために,従来の認知境界を破って,正常データと異常データの両方でトレーニング可能な重み付きoccモデルを提案する。
また、WSモデルの最適しきい値を自動的にゆるやかな方法で見つけるための適応的なメカニズムを提案する。
提案手法が従来の手法より優れていることを示す実験を行った。
関連論文リスト
- Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via
Selective Entropy Distillation [60.17626806243389]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - StochCA: A Novel Approach for Exploiting Pretrained Models with
Cross-Attention [2.992602379681373]
トランスフォーマーアーキテクチャに特有なクロスアテンション(StochCA)と呼ばれる新しい微調整手法を提案する。
この方法はトランスフォーマーの自己保持機構を変更し、微調整中に事前学習したモデルからの知識を選択的に活用する。
両領域の最先端アプローチに対するStochCAの優位性について検討した。
論文 参考訳(メタデータ) (2024-02-25T13:53:49Z) - FD-Align: Feature Discrimination Alignment for Fine-tuning Pre-Trained
Models in Few-Shot Learning [21.693779973263172]
本稿では,特徴識別アライメント(FD-Align)と呼ばれる微調整手法を提案する。
本手法は,突発的特徴の一貫性を保ち,モデルの一般化可能性を高めることを目的としている。
一度微調整すると、モデルは既存のメソッドとシームレスに統合され、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-23T17:12:01Z) - MixBCT: Towards Self-Adapting Backward-Compatible Training [89.38610089956909]
後方互換性のあるトレーニングを使用することで、古い検索データセットを更新する必要がなくなる。
そこで本研究では,単純かつ高効率な後方互換性学習法であるMixBCTを提案する。
提案手法は,従来の埋め込みの分布に基づいて,新しい特徴に対する制約領域を適応的に調整する。
論文 参考訳(メタデータ) (2023-08-14T05:55:38Z) - Training-based Model Refinement and Representation Disagreement for
Semi-Supervised Object Detection [8.096382537967637]
半教師付き物体検出(SSOD)は、既存の物体検出器の性能と一般化を改善することを目的としている。
近年のSSOD法は, 古典的指数移動平均 (EMA) 戦略を用いて, モデル改良の不十分さが問題となっている。
本稿では,新しいトレーニングベースモデル改良段階と,シンプルで効果的な表現不一致(RD)戦略を提案する。
論文 参考訳(メタデータ) (2023-07-25T18:26:22Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - GAN Cocktail: mixing GANs without dataset access [18.664733153082146]
実世界でしばしば発生する2つの制約を考えると、モデルマージの問題に取り組みます。
第一段階では、モデルルートと呼ぶ手法により、全てのモデルの重みを同じパラメータ空間に変換する。
第2段階では、ルートモデルの重みを平均化し、元のトレーニングされたモデルによって生成されたデータのみを使用して、特定のドメイン毎に微調整することで、ルートモデルとマージする。
論文 参考訳(メタデータ) (2021-06-07T17:59:04Z) - Two-phase Pseudo Label Densification for Self-training based Domain
Adaptation [93.03265290594278]
TPLDと呼ばれる,新規な二相擬似ラベル高密度化フレームワークを提案する。
第1フェーズでは,スライディングウインドウ投票を用いて,画像内の内在的空間相関を利用して,自信のある予測を広める。
第2フェーズでは,信頼度に基づく容易な分類を行う。
トレーニングプロセスの容易化と騒音予測の回避を目的として,ブートストラップ機構の導入を行った。
論文 参考訳(メタデータ) (2020-12-09T02:35:25Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。