論文の概要: Learning In-Distribution Representations for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2501.05130v2
- Date: Fri, 10 Jan 2025 11:50:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 12:07:29.346491
- Title: Learning In-Distribution Representations for Anomaly Detection
- Title(参考訳): 異常検出のための分布内表現の学習
- Authors: Willian T. Lunardi, Abdulrahman Banabila, Dania Herzalla, Martin Andreoni,
- Abstract要約: Focused In-distriion Representation Modeling (FIRM) は、異常検出に特化して設計された対照的な学習目的である。
FIRMは、表現空間を積極的に形作る方法として、合成外接辞をプリテキストタスクに組み込む。
FIRMが標準ベンチマークの他のコントラスト手法を上回ることを示す。
- 参考スコア(独自算出の注目度): 0.21427777919040417
- License:
- Abstract: Anomaly detection involves identifying data patterns that deviate from the anticipated norm. Traditional methods struggle in high-dimensional spaces due to the curse of dimensionality. In recent years, self-supervised learning, particularly through contrastive objectives, has driven advances in anomaly detection. However, vanilla contrastive learning struggles to align with the unique demands of anomaly detection, as it lacks a pretext task tailored to the homogeneous nature of In-Distribution (ID) data and the diversity of Out-of-Distribution (OOD) anomalies. Methods that attempt to address these challenges, such as introducing hard negatives through synthetic outliers, Outlier Exposure (OE), and supervised objectives, often rely on pretext tasks that fail to balance compact clustering of ID samples with sufficient separation from OOD data. In this work, we propose Focused In-distribution Representation Modeling (FIRM), a contrastive learning objective specifically designed for anomaly detection. Unlike existing approaches, FIRM incorporates synthetic outliers into its pretext task in a way that actively shapes the representation space, promoting compact clustering of ID samples while enforcing strong separation from outliers. This formulation addresses the challenges of class collision, enhancing both the compactness of ID representations and the discriminative power of the learned feature space. We show that FIRM surpasses other contrastive methods in standard benchmarks, significantly enhancing anomaly detection compared to both traditional and supervised contrastive learning objectives. Our ablation studies confirm that FIRM consistently improves the quality of representations and shows robustness across a range of scoring methods. The code is available at: https://github.com/willtl/firm.
- Abstract(参考訳): 異常検出には、予想される基準から逸脱するデータパターンを特定することが含まれる。
伝統的な手法は次元の呪いのために高次元空間で苦労する。
近年, 自己指導型学習は, 特に対照的な目的を通じて, 異常検出の進歩を推し進めている。
しかしながら、バニラの対照的な学習は、異常検出のユニークな要求に合わせるのに苦労している。これは、ID(In-Distribution)データの同質性や、アウト・オブ・ディストリビューション(OOD)異常の多様性に合わせた、プレテキストタスクが欠けているためである。
これらの課題に対処しようとする手法としては、合成アウトリージ、OE(Outlier Exposure)、監視対象などがあり、多くの場合、OODデータから十分に分離されたIDサンプルのコンパクトクラスタリングのバランスが取れないようなプリテキストタスクに依存している。
本研究では,異常検出に特化して設計された対照的な学習目的であるFocused In-distriion Representation Modeling (FIRM)を提案する。
既存のアプローチとは異なり、FIRMは、表現空間を積極的に形成し、外部からの強い分離を強制しながら、IDサンプルのコンパクトなクラスタリングを促進する方法として、合成アウトレイアをプリテキストタスクに組み込んでいる。
この定式化はクラス衝突の課題に対処し、ID表現のコンパクトさと学習された特徴空間の識別力の両方を高める。
FIRMは標準ベンチマークにおける他のコントラスト手法を超越し,従来のコントラスト学習目標と教師あり学習目標の両方と比較して,異常検出を著しく向上することを示す。
我々のアブレーション研究は、FIRMが表現の質を一貫して改善し、様々なスコアリング手法で堅牢性を示すことを確認した。
コードは、https://github.com/willtl/firm.comから入手できる。
関連論文リスト
- Out-of-Distribution Detection with Prototypical Outlier Proxy [17.130831264648997]
よく訓練されたディープモデルは、目に見えないテストデータに対して過剰な自信を持つ傾向があります。
近年の研究では、実際のまたは合成された外れ値を利用して問題を緩和しようとしている。
POP(Prototypeal Outlier Proxy)を提案する。
論文 参考訳(メタデータ) (2024-12-22T06:32:20Z) - CKD: Contrastive Knowledge Distillation from A Sample-wise Perspective [48.99488315273868]
本研究では,試料内およびサンプル間制約によるサンプルワイドアライメント問題として定式化できる,対照的な知識蒸留手法を提案する。
本手法は, 数値を考慮し, 同一試料中のロジット差を最小化する。
CIFAR-100, ImageNet-1K, MS COCOの3つのデータセットについて総合的な実験を行った。
論文 参考訳(メタデータ) (2024-04-22T11:52:40Z) - Exploiting Inter-sample and Inter-feature Relations in Dataset Distillation [25.552810713735873]
クラス集中化制約と共分散マッチング制約を導入する。
CIFAR10では最大6.6%、SVHNでは2.9%、CIFAR100では2.5%、TinyImageNetでは2.5%となる。
本手法は,4つのアーキテクチャにおいて最大1.7%の性能低下を伴って,クロスアーキテクチャ環境でのロバストな性能を維持している。
論文 参考訳(メタデータ) (2024-03-31T05:07:06Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Robust Representation via Dynamic Feature Aggregation [44.927408735490005]
ディープ畳み込みニューラルネットワーク(CNN)ベースのモデルは、敵の攻撃に対して脆弱である。
本稿では,新しい正規化により埋め込み空間を圧縮する動的特徴集約法を提案する。
CIFAR-10における攻撃法の平均精度は56.91%である。
論文 参考訳(メタデータ) (2022-05-16T06:22:15Z) - Guardian of the Ensembles: Introducing Pairwise Adversarially Robust Loss for Resisting Adversarial Attacks in DNN Ensembles [11.058367494534123]
攻撃は移動可能性に依存する。
最近のアンサンブル法は、AEがアンサンブル内の複数の分類器を誤解させる可能性が低いことを示している。
本稿では,Pairwise Adversariversaally Robust Loss (PARL) を用いた新たなアンサンブルトレーニングを提案する。
論文 参考訳(メタデータ) (2021-12-09T14:26:13Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Deep Robust Clustering by Contrastive Learning [31.161207608881472]
本稿では,非競合データを用いたクラスタリング学習のために,Deep Robust Clustering (DRC)を提案する。
DRCは、セマンティッククラスタリングの割り当てと表現機能の両方の観点から、ディープクラスタリングを考察している。
広く採用されている6つのディープクラスタリングベンチマークの実験は、安定性と精度の両方においてDRCの優位性を示している。
論文 参考訳(メタデータ) (2020-08-07T08:05:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。