論文の概要: Levarging Learning Bias for Noisy Anomaly Detection
- arxiv url: http://arxiv.org/abs/2508.07441v1
- Date: Sun, 10 Aug 2025 17:47:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.859195
- Title: Levarging Learning Bias for Noisy Anomaly Detection
- Title(参考訳): 雑音異常検出のための学習バイアス
- Authors: Yuxin Zhang, Yunkang Cao, Yuqi Cheng, Yihan Sun, Weiming Shen,
- Abstract要約: 本稿では、フル教師なし画像異常検出(FUIAD)の課題に対処する。
従来の方法では、異常のないトレーニングデータを仮定するが、実世界の汚染により、モデルは通常通り異常を吸収する。
モデルに固有の学習バイアスを利用する2段階のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.7739242666228385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the challenge of fully unsupervised image anomaly detection (FUIAD), where training data may contain unlabeled anomalies. Conventional methods assume anomaly-free training data, but real-world contamination leads models to absorb anomalies as normal, degrading detection performance. To mitigate this, we propose a two-stage framework that systematically exploits inherent learning bias in models. The learning bias stems from: (1) the statistical dominance of normal samples, driving models to prioritize learning stable normal patterns over sparse anomalies, and (2) feature-space divergence, where normal data exhibit high intra-class consistency while anomalies display high diversity, leading to unstable model responses. Leveraging the learning bias, stage 1 partitions the training set into subsets, trains sub-models, and aggregates cross-model anomaly scores to filter a purified dataset. Stage 2 trains the final detector on this dataset. Experiments on the Real-IAD benchmark demonstrate superior anomaly detection and localization performance under different noise conditions. Ablation studies further validate the framework's contamination resilience, emphasizing the critical role of learning bias exploitation. The model-agnostic design ensures compatibility with diverse unsupervised backbones, offering a practical solution for real-world scenarios with imperfect training data. Code is available at https://github.com/hustzhangyuxin/LLBNAD.
- Abstract(参考訳): 本稿では、ラベルなし異常を含む訓練データを含む、完全教師なし画像異常検出(FUIAD)の課題に対処する。
従来の方法では、異常のないトレーニングデータを仮定するが、実際の汚染は、モデルが異常を正常な劣化検出性能として吸収する原因となる。
これを軽減するために,モデルに固有の学習バイアスを体系的に活用する2段階フレームワークを提案する。
学習バイアスは,(1)正常標本の統計的優位性,(2)スパース異常よりも安定な正規パターンを優先する学習モデル,(2)特徴空間のばらつき,(2)異常データが高い多様性を示し,不安定なモデル応答をもたらすことに由来する。
学習バイアスを活用して、ステージ1はトレーニングセットをサブセットに分割し、サブモデルをトレーニングし、クロスモデル異常スコアを集約して、精製されたデータセットをフィルタリングする。
ステージ2は、このデータセット上で最終検出器を訓練する。
Real-IADベンチマークの実験では、異なる雑音条件下での優れた異常検出と局所化性能が示された。
アブレーション研究はフレームワークの汚染レジリエンスをさらに検証し、学習バイアスの搾取における重要な役割を強調した。
モデルに依存しない設計は、さまざまな教師なしバックボーンとの互換性を保証する。
コードはhttps://github.com/hustzhangyuxin/LLBNADで入手できる。
関連論文リスト
- CLIP Meets Diffusion: A Synergistic Approach to Anomaly Detection [54.85000884785013]
異常検出は、異常の定義の曖昧さ、異常型の多様性、トレーニングデータの不足による複雑な問題である。
識別的基盤モデルと生成的基礎モデルの両方を活用するCLIPfusionを提案する。
本手法は, 異常検出の多面的課題に対処する上で, マルチモーダル・マルチモデル融合の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2025-06-13T13:30:15Z) - Strengthening Anomaly Awareness [0.0]
我々は、教師なし異常検出の強化を目的とした、異常認識フレームワークの洗練されたバージョンを提案する。
本稿では,2段階のトレーニング戦略を通じて,変分オートエンコーダ(VAE)の最小限の監視を導入する。
論文 参考訳(メタデータ) (2025-04-15T16:52:22Z) - GLAD: Towards Better Reconstruction with Global and Local Adaptive Diffusion Models for Unsupervised Anomaly Detection [60.78684630040313]
拡散モデルは、特定のノイズを付加したテスト画像の通常の画像を再構成する傾向がある。
世界的視点から見ると、異なる異常による画像再構成の難しさは不均一である。
本稿では,非教師付き異常検出のためのグローバルかつ局所的な適応拡散モデル(GLADと略す)を提案する。
論文 参考訳(メタデータ) (2024-06-11T17:27:23Z) - Active anomaly detection based on deep one-class classification [9.904380236739398]
我々は,Deep SVDDにおけるアクティブラーニングの2つの重要な課題,すなわちクエリ戦略と半教師付きラーニング手法に対処する。
まず、単に異常を識別するのではなく、適応境界に従って不確実なサンプルを選択する。
第2に、ラベル付き正規データと異常データの両方を効果的に組み込むために、一級分類モデルの訓練にノイズコントラスト推定を適用した。
論文 参考訳(メタデータ) (2023-09-18T03:56:45Z) - An Iterative Method for Unsupervised Robust Anomaly Detection Under Data
Contamination [24.74938110451834]
ほとんどの深層異常検出モデルは、データセットから正規性を学ぶことに基づいている。
実際、正規性仮定は実データ分布の性質によってしばしば破られる。
このギャップを減らし、より優れた正規性表現を実現するための学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T02:36:19Z) - Calibrated One-class Classification for Unsupervised Time Series Anomaly Detection [27.15951068292889]
本稿では,異常検出のための一級分類を提案する。
データの正規性の汚染耐性、異常なインフォームド学習を実現する。
我々のモデルは16人の最先端の競争者に対して大幅な改善を達成している。
論文 参考訳(メタデータ) (2022-07-25T13:43:13Z) - SLA$^2$P: Self-supervised Anomaly Detection with Adversarial
Perturbation [77.71161225100927]
異常検出は、機械学習の基本的な問題であるが、難しい問題である。
本稿では,非教師付き異常検出のための新しい強力なフレームワークであるSLA$2$Pを提案する。
論文 参考訳(メタデータ) (2021-11-25T03:53:43Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Understanding the Effect of Bias in Deep Anomaly Detection [15.83398707988473]
異常検出はラベル付き異常データの不足のため、機械学習においてユニークな課題となる。
最近の研究は、追加のラベル付き異常サンプルによる深部異常検出モデルのトレーニングを増強することで、このような問題を緩和しようとするものである。
本稿では,異常検出に対するバイアス付き異常集合の効果を理解することを目的とする。
論文 参考訳(メタデータ) (2021-05-16T03:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。