論文の概要: Learning Compact and Robust Representations for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2501.05130v3
- Date: Sat, 01 Feb 2025 19:00:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:04:10.915123
- Title: Learning Compact and Robust Representations for Anomaly Detection
- Title(参考訳): 異常検出のためのコンパクト・ロバスト表現の学習
- Authors: Willian T. Lunardi, Abdulrahman Banabila, Dania Herzalla, Martin Andreoni,
- Abstract要約: 本稿では,3つの重要な特性を強制する異常検出のための対照的な前文タスクを提案する。
これらの特性は協調して、異常検出のためのより堅牢で差別的な特徴空間を確保する。
提案手法は,NT-Xentの約12倍,Rot-SupConの約7倍のコンバージェンスを実現し,性能が向上した。
- 参考スコア(独自算出の注目度): 0.21427777919040417
- License:
- Abstract: Distance-based anomaly detection methods rely on compact and separable in-distribution (ID) embeddings to effectively delineate anomaly boundaries. Single-positive contrastive formulations suffer from class collision, promoting unnecessary intra-class variance within ID samples. While multi-positive formulations can improve inlier compactness, they fail to preserve the diversity among synthetic outliers. We address these limitations by proposing a contrastive pretext task for anomaly detection that enforces three key properties: (1) compact ID clustering to reduce intra-class variance, (2) inlier-outlier separation to enhance inter-class separation, and (3) outlier-outlier separation to maintain diversity among synthetic outliers and prevent representation collapse. These properties work together to ensure a more robust and discriminative feature space for anomaly detection. Our approach achieves approximately 12x faster convergence than NT-Xent and 7x faster than Rot-SupCon, with superior performance. On CIFAR-10, it delivers an average performance boost of 6.2% over NT-Xent and 2% over Rot-SupCon, with class-specific improvements of up to 16.9%. Our code is available at https://anonymous.4open.science/r/firm-98B6.
- Abstract(参考訳): 距離に基づく異常検出法は、異常境界を効果的に記述するために、コンパクトで分離可能な分散内分布(ID)埋め込みに依存している。
単陽性の対照的な定式化はクラス衝突に悩まされ、IDサンプル内で不要なクラス内分散が促進される。
多陽性の定式化は不整合コンパクト性を改善することができるが、合成不整合の多様性を保たない。
本研究では,(1) クラス内分散を低減するためのコンパクトIDクラスタリング,(2) クラス間分離を強化するためのインリエ・アウトリエ分離,(3) 合成アウトリエ間の多様性を維持し,表現崩壊を防止するためのアウトリエ・アウトリエ分離という3つの重要な特性を強制する,異常検出のための対照的なプレテキストタスクを提案することで,これらの制約に対処する。
これらの特性は協調して、異常検出のためのより堅牢で差別的な特徴空間を確保する。
提案手法は,NT-Xentの約12倍,Rot-SupConの約7倍のコンバージェンスを実現し,性能が向上した。
CIFAR-10ではNT-Xentが6.2%、Rot-SupConが2%、クラス固有の改善が16.9%となっている。
私たちのコードはhttps://anonymous.4open.science/r/firm-98B6で利用可能です。
関連論文リスト
- Out-of-Distribution Detection with Prototypical Outlier Proxy [17.130831264648997]
よく訓練されたディープモデルは、目に見えないテストデータに対して過剰な自信を持つ傾向があります。
近年の研究では、実際のまたは合成された外れ値を利用して問題を緩和しようとしている。
POP(Prototypeal Outlier Proxy)を提案する。
論文 参考訳(メタデータ) (2024-12-22T06:32:20Z) - CKD: Contrastive Knowledge Distillation from A Sample-wise Perspective [48.99488315273868]
本研究では,試料内およびサンプル間制約によるサンプルワイドアライメント問題として定式化できる,対照的な知識蒸留手法を提案する。
本手法は, 数値を考慮し, 同一試料中のロジット差を最小化する。
CIFAR-100, ImageNet-1K, MS COCOの3つのデータセットについて総合的な実験を行った。
論文 参考訳(メタデータ) (2024-04-22T11:52:40Z) - Exploiting Inter-sample and Inter-feature Relations in Dataset Distillation [25.552810713735873]
クラス集中化制約と共分散マッチング制約を導入する。
CIFAR10では最大6.6%、SVHNでは2.9%、CIFAR100では2.5%、TinyImageNetでは2.5%となる。
本手法は,4つのアーキテクチャにおいて最大1.7%の性能低下を伴って,クロスアーキテクチャ環境でのロバストな性能を維持している。
論文 参考訳(メタデータ) (2024-03-31T05:07:06Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Robust Representation via Dynamic Feature Aggregation [44.927408735490005]
ディープ畳み込みニューラルネットワーク(CNN)ベースのモデルは、敵の攻撃に対して脆弱である。
本稿では,新しい正規化により埋め込み空間を圧縮する動的特徴集約法を提案する。
CIFAR-10における攻撃法の平均精度は56.91%である。
論文 参考訳(メタデータ) (2022-05-16T06:22:15Z) - Guardian of the Ensembles: Introducing Pairwise Adversarially Robust Loss for Resisting Adversarial Attacks in DNN Ensembles [11.058367494534123]
攻撃は移動可能性に依存する。
最近のアンサンブル法は、AEがアンサンブル内の複数の分類器を誤解させる可能性が低いことを示している。
本稿では,Pairwise Adversariversaally Robust Loss (PARL) を用いた新たなアンサンブルトレーニングを提案する。
論文 参考訳(メタデータ) (2021-12-09T14:26:13Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Deep Robust Clustering by Contrastive Learning [31.161207608881472]
本稿では,非競合データを用いたクラスタリング学習のために,Deep Robust Clustering (DRC)を提案する。
DRCは、セマンティッククラスタリングの割り当てと表現機能の両方の観点から、ディープクラスタリングを考察している。
広く採用されている6つのディープクラスタリングベンチマークの実験は、安定性と精度の両方においてDRCの優位性を示している。
論文 参考訳(メタデータ) (2020-08-07T08:05:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。