論文の概要: Unsupervised Outlier Detection using Memory and Contrastive Learning
- arxiv url: http://arxiv.org/abs/2107.12642v1
- Date: Tue, 27 Jul 2021 07:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:41:23.640182
- Title: Unsupervised Outlier Detection using Memory and Contrastive Learning
- Title(参考訳): メモリとコントラスト学習を用いた教師なし外乱検出
- Authors: Ning Huyan, Dou Quan, Xiangrong Zhang, Xuefeng Liang, Jocelyn
Chanussot, Licheng Jiao
- Abstract要約: 特徴空間における外乱検出は,外乱検出から外乱検出までの特徴距離を測定することで行うことができると考えている。
本稿では,メモリモジュールとコントラスト学習モジュールを用いたMCODフレームワークを提案する。
提案したMCODは高い性能を達成し,9つの最先端手法より優れる。
- 参考スコア(独自算出の注目度): 53.77693158251706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Outlier detection is one of the most important processes taken to create
good, reliable data in machine learning. The most methods of outlier detection
leverage an auxiliary reconstruction task by assuming that outliers are more
difficult to be recovered than normal samples (inliers). However, it is not
always true, especially for auto-encoder (AE) based models. They may recover
certain outliers even outliers are not in the training data, because they do
not constrain the feature learning. Instead, we think outlier detection can be
done in the feature space by measuring the feature distance between outliers
and inliers. We then propose a framework, MCOD, using a memory module and a
contrastive learning module. The memory module constrains the consistency of
features, which represent the normal data. The contrastive learning module
learns more discriminating features, which boosts the distinction between
outliers and inliers. Extensive experiments on four benchmark datasets show
that our proposed MCOD achieves a considerable performance and outperforms nine
state-of-the-art methods.
- Abstract(参考訳): 外乱検出は、機械学習において、優れた信頼性のあるデータを作成するための最も重要なプロセスの1つである。
外乱検出の最も有効な方法は、外乱の回収が通常のサンプル(外乱)よりも難しいと仮定して補助的復元作業を利用する。
しかし、特にオートエンコーダ(AE)ベースのモデルでは、必ずしもそうではない。
機能学習を制約しないため、トレーニングデータに存在しないような、特定のアウトレーヤを回復することも可能だ。
代わりに、outlierとinlier間の機能距離を測定することで、機能空間でoutlier検出ができると考えています。
次に,メモリモジュールとコントラスト学習モジュールを用いたフレームワークであるmcodを提案する。
メモリモジュールは、通常のデータを表す特徴の一貫性を制限する。
コントラスト学習モジュールは、より識別的な特徴を学習するので、外れ値と外れ値の区別が促進される。
4つのベンチマークデータセットの大規模な実験により,提案したMCODは高い性能を示し,9つの最先端手法を上回る性能を示した。
関連論文リスト
- Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Unsupervised Continual Anomaly Detection with Contrastively-learned
Prompt [80.43623986759691]
UCADと呼ばれる新しい非教師付き連続異常検出フレームワークを提案する。
このフレームワークは、対照的に学習したプロンプトを通じて、UDAに継続的な学習能力を持たせる。
我々は総合的な実験を行い、教師なし連続異常検出とセグメンテーションのベンチマークを設定した。
論文 参考訳(メタデータ) (2024-01-02T03:37:11Z) - SSB: Simple but Strong Baseline for Boosting Performance of Open-Set
Semi-Supervised Learning [106.46648817126984]
本稿では,挑戦的で現実的なオープンセットSSL設定について検討する。
目標は、inlierを正しく分類し、outlierを検知することである。
信頼度の高い疑似ラベル付きデータを組み込むことで、不整合分類性能を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-11-17T15:14:40Z) - Quantile-based Maximum Likelihood Training for Outlier Detection [5.902139925693801]
我々は,推定時の外乱分離を改善するために,不整合分布を学習するための量子化に基づく最大極大目標を提案する。
本手法は, 事前学習した識別特徴に正規化フローを適合させ, 評価されたログ類似度に応じて異常値を検出する。
論文 参考訳(メタデータ) (2023-08-20T22:27:54Z) - ODIM: Outlier Detection via Likelihood of Under-Fitted Generative Models [4.956259629094216]
Unsupervised Outlier Detection (UOD) とは、非教師付き外乱検出(unsupervised outlier detection, UOD)問題である。
我々は、IM効果(ODIM)による外れ検知と呼ばれる新しい手法を開発した。
注目すべきなのは、ODIMはほんの数回の更新しか必要とせず、計算効率が他のディープラーニングベースのアルゴリズムの何倍も高速であることだ。
論文 参考訳(メタデータ) (2023-01-11T01:02:27Z) - Comparison of Outlier Detection Techniques for Structured Data [2.2907341026741017]
外れ値(outlier)は、与えられたデータセットの残りのデータポイントから遠く離れた観測またはデータポイントである。
モデリングの前にトレーニングデータセットから外れ値を削除することで、より良い予測が可能になることが示されている。
この研究の目的は、データサイエンティストがその情報を使って外れ値のアルゴリズムの選択を行うために、既存の外れ値検出技術をいくつか強調し、比較することである。
論文 参考訳(メタデータ) (2021-06-16T13:40:02Z) - Do We Really Need to Learn Representations from In-domain Data for
Outlier Detection? [6.445605125467574]
2段階のフレームワークに基づく手法は、このタスクで最先端のパフォーマンスを達成する。
我々は,各外乱検出タスクに対して,異なる表現を訓練するコストが高いことを避ける可能性を探る。
実験では, 従来の2段階法と比較して, 様々な外乱検出ベンチマークにおいて, 競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2021-05-19T17:30:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。