論文の概要: Memorize Early, Then Query: Inlier-Memorization-Guided Active Outlier Detection
- arxiv url: http://arxiv.org/abs/2601.10993v2
- Date: Mon, 19 Jan 2026 09:43:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 18:45:13.55728
- Title: Memorize Early, Then Query: Inlier-Memorization-Guided Active Outlier Detection
- Title(参考訳): Inlier-Memorization-Guided Active Outlier Detection
- Authors: Minseo Kang, Seunghwan Park, Dongha Kim,
- Abstract要約: Inlier-memorization (IM) 効果は、外れ値の識別に有望な信号を与える。
IM効果のみに依存する既存の教師なしのアプローチは、インレーヤとアウトレーヤが十分に分離されていない場合に依然として苦戦している。
本稿では, IM効果を明示的に強化し, 異常検出を改善する新しいフレームワークであるIMBoostを提案する。
- 参考スコア(独自算出の注目度): 5.34972604411447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Outlier detection (OD) aims to identify abnormal instances, known as outliers or anomalies, by learning typical patterns of normal data, or inliers. Performing OD under an unsupervised regime-without any information about anomalous instances in the training data-is challenging. A recently observed phenomenon, known as the inlier-memorization (IM) effect, where deep generative models (DGMs) tend to memorize inlier patterns during early training, provides a promising signal for distinguishing outliers. However, existing unsupervised approaches that rely solely on the IM effect still struggle when inliers and outliers are not well-separated or when outliers form dense clusters. To address these limitations, we incorporate active learning to selectively acquire informative labels, and propose IMBoost, a novel framework that explicitly reinforces the IM effect to improve outlier detection. Our method consists of two stages: 1) a warm-up phase that induces and promotes the IM effect, and 2) a polarization phase in which actively queried samples are used to maximize the discrepancy between inlier and outlier scores. In particular, we propose a novel query strategy and tailored loss function in the polarization phase to effectively identify informative samples and fully leverage the limited labeling budget. We provide a theoretical analysis showing that the IMBoost consistently decreases inlier risk while increasing outlier risk throughout training, thereby amplifying their separation. Extensive experiments on diverse benchmark datasets demonstrate that IMBoost not only significantly outperforms state-of-the-art active OD methods but also requires substantially less computational cost.
- Abstract(参考訳): Outlier Detection (OD) は、通常のデータや異常なデータパターンを学習することで、異常なインスタンスを識別することを目的としている。
トレーニングデータにおける異常なインスタンスに関する情報を一切含まない、教師なしのシステマティクス下でのODの実行は難しい。
最近観察された現象は、深部生成モデル(DGM)が早期訓練中に不整形パターンを記憶する傾向にある不整形記憶(inlier-memorization、IM)効果(inlier-memorization、IM)として知られている。
しかし、inlierとoutlierが十分に分離されていない場合や、outlierが高密度クラスタを形成していない場合、IM効果のみに依存する既存の教師なしアプローチは依然として苦戦している。
これらの制約に対処するために,能動的学習を取り入れて情報ラベルを選択的に取得し,IM効果を明示的に強化し,異常検出を改善する新しいフレームワークであるIMBoostを提案する。
我々の手法は2つの段階から構成される。
1)IM効果を誘導し促進するウォームアップフェーズ、及び
2)Inlierとoutlierのスコアの差を最大化するために、アクティブにクエリされたサンプルが使用される分極相。
特に,情報的サンプルを効果的に識別し,限られたラベル付け予算を十分に活用するために,ポーラライゼーションフェーズにおける新しいクエリ戦略と調整された損失関数を提案する。
本稿では,IMBoostがトレーニングを通して不整合リスクを継続的に減少させながら,不整合リスクを増大させ,その分離を増幅する理論解析を行った。
多様なベンチマークデータセットに対する大規模な実験により、IMBoostは最先端のアクティブODメソッドよりも大幅に優れるだけでなく、計算コストも大幅に削減されることが示された。
関連論文リスト
- Anomalous Decision Discovery using Inverse Reinforcement Learning [3.3675535571071746]
異常検出は、知覚システムを通じて異常な行動を特定することによって、自律走行車(AV)において重要な役割を果たす。
現在のアプローチは、しばしば定義済みのしきい値や教師付き学習パラダイムに依存するが、目に見えないシナリオに直面すると効果が低下する。
異常検出のための新しいIRLフレームワークである Trajectory-Reward Guided Adaptive Pre-training (TRAP) を提案する。
論文 参考訳(メタデータ) (2025-07-06T17:01:02Z) - ALTBI: Constructing Improved Outlier Detection Models via Optimization of Inlier-Memorization Effect [2.3961612657966946]
外乱検出(英: Outlier detection, OD)とは、特定のデータや今後のデータから異常な観測(または外乱)を識別するタスクである。
Inlier-memorization (IM) 効果は、生成モデルが初期の学習段階において、アウトリーチよりも前のインリーチを記憶することを示唆している。
IM効果を最大限に活用し,UODタスクに対処する理論的原理的手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:40:53Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection [64.50126371767476]
階層的拡張(UniCon-HA)を用いた一方的集約型コントラスト学習を提案する。
我々は、教師付きおよび教師なしの対照的な損失を通じて、インレーヤの濃度と仮想外れ値の分散を明示的に奨励する。
本手法は,ラベルなし1クラス,ラベルなしマルチクラス,ラベル付きマルチクラスを含む3つのAD設定で評価される。
論文 参考訳(メタデータ) (2023-08-20T04:01:50Z) - ODIM: Outlier Detection via Likelihood of Under-Fitted Generative Models [4.956259629094216]
Unsupervised Outlier Detection (UOD) とは、非教師付き外乱検出(unsupervised outlier detection, UOD)問題である。
我々は、IM効果(ODIM)による外れ検知と呼ばれる新しい手法を開発した。
注目すべきなのは、ODIMはほんの数回の更新しか必要とせず、計算効率が他のディープラーニングベースのアルゴリズムの何倍も高速であることだ。
論文 参考訳(メタデータ) (2023-01-11T01:02:27Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。