論文の概要: Transfer Learning Gaussian Anomaly Detection by Fine-Tuning
Representations
- arxiv url: http://arxiv.org/abs/2108.04116v1
- Date: Mon, 9 Aug 2021 15:29:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:16:14.345860
- Title: Transfer Learning Gaussian Anomaly Detection by Fine-Tuning
Representations
- Title(参考訳): 微調整表現による伝達学習ガウス異常検出
- Authors: Oliver Rippel, Arnav Chavan, Chucai Lei, Dorit Merhof
- Abstract要約: 破滅的な忘れは、新しいデータセット上で事前訓練された表現の微調整を成功させるのを防ぐ。
本稿では,移動学習環境におけるADの学習表現を微調整する手法を提案する。
また,破滅的忘れの開始を検知するバリデーションスキームにおいて,胸部リスクに一般的に使用される拡張法を提案する。
- 参考スコア(独自算出の注目度): 3.5031508291335625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art Anomaly Detection (AD) methods exploit the powerful
representations yielded by large-scale ImageNet training. However, catastrophic
forgetting prevents the successful fine-tuning of pre-trained representations
on new datasets in the semi/unsupervised setting, and representations are
therefore commonly fixed.
In our work, we propose a new method to fine-tune learned representations for
AD in a transfer learning setting. Based on the linkage between generative and
discriminative modeling, we induce a multivariate Gaussian distribution for the
normal class, and use the Mahalanobis distance of normal images to the
distribution as training objective. We additionally propose to use
augmentations commonly employed for vicinal risk minimization in a validation
scheme to detect onset of catastrophic forgetting.
Extensive evaluations on the public MVTec AD dataset reveal that a new state
of the art is achieved by our method in the AD task while simultaneously
achieving AS performance comparable to prior state of the art. Further,
ablation studies demonstrate the importance of the induced Gaussian
distribution as well as the robustness of the proposed fine-tuning scheme with
respect to the choice of augmentations.
- Abstract(参考訳): 現在の最先端の異常検出(AD)手法は、大規模なImageNetトレーニングによって得られる強力な表現を利用する。
しかし、壊滅的な忘れは、半教師なしの設定で新しいデータセット上で事前訓練された表現の微調整が成功するのを防ぎ、そのため表現は一般に固定される。
本研究では,移動学習環境におけるADの学習表現を微調整する新しい手法を提案する。
生成的および識別的モデリングの関連性に基づき、正規クラスに対して多変量ガウス分布を誘導し、正規画像のマハラノビス距離を学習目的として用いる。
また,破滅的忘れの発症を検出するための検証手法として,胸部リスク最小化によく用いられる拡張法を提案する。
公開MVTec ADデータセットの広範囲な評価により,ADタスクにおける我々の手法により,先行技術に匹敵するAS性能を同時に達成し,新たな技術状態が達成されることが明らかとなった。
さらに, アブレーション研究は, 誘導ガウス分布の重要性と, 拡張の選択に関して提案する微調整スキームの頑健性を示している。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - Gaussian Latent Representations for Uncertainty Estimation using
Mahalanobis Distance in Deep Classifiers [1.5088605208312555]
本稿では,マハラノビス距離に基づく不確実性予測のための軽量で高速かつ高性能な正規化手法を提案する。
微生物分類における実生活コンピュータビジョン利用事例への本手法の適用性を示す。
論文 参考訳(メタデータ) (2023-05-23T09:18:47Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Adaptive Dimension Reduction and Variational Inference for Transductive
Few-Shot Classification [2.922007656878633]
適応次元の削減によりさらに改善された変分ベイズ推定に基づく新しいクラスタリング法を提案する。
提案手法は,Few-Shotベンチマークにおける現実的非バランスなトランスダクティブ設定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-09-18T10:29:02Z) - Weakly supervised segmentation with cross-modality equivariant
constraints [7.757293476741071]
弱い教師付き学習は、セマンティックセグメンテーションにおける大きなラベル付きデータセットの必要性を軽減するための魅力的な代替手段として登場した。
本稿では,マルチモーダル画像シナリオにおける自己スーパービジョンを活用した新しい学習戦略を提案する。
私たちのアプローチは、同じ学習条件下で関連する最近の文学を上回ります。
論文 参考訳(メタデータ) (2021-04-06T13:14:20Z) - PaDiM: a Patch Distribution Modeling Framework for Anomaly Detection and
Localization [64.39761523935613]
本稿では,画像中の異常を同時検出・ローカライズするPatch Distribution Modeling, PaDiMを提案する。
PaDiMは、パッチの埋め込みに事前訓練された畳み込みニューラルネットワーク(CNN)を使用している。
また、CNNの異なるセマンティックレベル間の相関を利用して、異常のローカライズも改善している。
論文 参考訳(メタデータ) (2020-11-17T17:29:18Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。