論文の概要: Network Inversion for Uncertainty-Aware Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2505.23448v1
- Date: Thu, 29 May 2025 13:53:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.882727
- Title: Network Inversion for Uncertainty-Aware Out-of-Distribution Detection
- Title(参考訳): 不確実性を考慮したアウト・オブ・ディストリビューション検出のためのネットワークインバージョン
- Authors: Pirzada Suhail, Rehna Afroz, Amit Sethi,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出と不確実性推定は、安全な機械学習システムを構築する上で重要な要素である。
OOD検出と不確実性推定の両方に対処するために,ネットワークインバージョンと分類器学習を組み合わせた新しいフレームワークを提案する。
我々のアプローチはスケーラブルで解釈可能であり、外部のOODデータセットやポストホックキャリブレーション技術へのアクセスを必要としない。
- 参考スコア(独自算出の注目度): 2.6733991338938026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-distribution (OOD) detection and uncertainty estimation (UE) are critical components for building safe machine learning systems, especially in real-world scenarios where unexpected inputs are inevitable. In this work, we propose a novel framework that combines network inversion with classifier training to simultaneously address both OOD detection and uncertainty estimation. For a standard n-class classification task, we extend the classifier to an (n+1)-class model by introducing a "garbage" class, initially populated with random gaussian noise to represent outlier inputs. After each training epoch, we use network inversion to reconstruct input images corresponding to all output classes that initially appear as noisy and incoherent and are therefore excluded to the garbage class for retraining the classifier. This cycle of training, inversion, and exclusion continues iteratively till the inverted samples begin to resemble the in-distribution data more closely, suggesting that the classifier has learned to carve out meaningful decision boundaries while sanitising the class manifolds by pushing OOD content into the garbage class. During inference, this training scheme enables the model to effectively detect and reject OOD samples by classifying them into the garbage class. Furthermore, the confidence scores associated with each prediction can be used to estimate uncertainty for both in-distribution and OOD inputs. Our approach is scalable, interpretable, and does not require access to external OOD datasets or post-hoc calibration techniques while providing a unified solution to the dual challenges of OOD detection and uncertainty estimation.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出と不確実性推定(UE)は、特に予期せぬ入力が避けられない現実のシナリオにおいて、安全な機械学習システムを構築する上で重要な要素である。
本研究では,OOD検出と不確実性推定を同時に行うために,ネットワークインバージョンと分類器学習を組み合わせた新しいフレームワークを提案する。
標準のn-クラス分類タスクでは、「ガーベッジ」クラスを導入して分類器を(n+1)-クラスモデルに拡張する。
学習終了後,まずはノイズや不整合として現れる全ての出力クラスに対応する入力画像の再構成にネットワーク・インバージョンを用い,分類器を再トレーニングするためにガベージ・クラスに除外する。
このトレーニング、逆転、排除のサイクルは、逆転したサンプルがより密接な分布データに類似し始めるまで反復的に継続し、分類器は、OOD含有量をガベージクラスにプッシュすることで、クラス多様体を衛生化しながら意味のある決定境界を彫ることを学んだことを示唆している。
推論中、このトレーニングスキームは、オブジェクトをガベージクラスに分類することで、OODサンプルを効果的に検出し、拒否することを可能にする。
さらに、各予測に関連付けられた信頼スコアを用いて、分布内入力とOOD入力の両方の不確かさを推定することができる。
我々のアプローチはスケーラブルで解釈可能であり、外部のOODデータセットやポストホックキャリブレーション技術にアクセスする必要はなく、OOD検出と不確実性推定という2つの課題に対する統一的な解決策を提供する。
関連論文リスト
- Outlier detection by ensembling uncertainty with negative objectness [0.0]
外乱検出は、教師付き視覚認識の安全クリティカルな応用に欠かせない能力である。
我々は、K の基底クラスと1つの外れ値クラスに対応する K+1 ロジットの直接予測を再考する。
K+2クラスにマスクレベルの認識を組み込んだ高密度予測アーキテクチャに本手法を組み込む。
論文 参考訳(メタデータ) (2024-02-23T15:19:37Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Unified Classification and Rejection: A One-versus-All Framework [47.58109235690227]
我々は,オープンな集合分類器を構築するための統一的なフレームワークを構築した。
K の $-class 問題を $ K $ 1-versus-all (OVA) のバイナリ分類タスクに分解することにより、OVA 分類器のスコアを組み合わせることで、$ (K+1) の $-class rear 確率が得られることを示す。
一般的なOSRおよびOOD検出データセットの実験により、提案するフレームワークは、単一のマルチクラス分類器を使用して、競合性能を得ることを示した。
論文 参考訳(メタデータ) (2023-11-22T12:47:12Z) - Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection [12.578844450586]
Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法の多くは、既知のデータの学習段階を利用しており、これは正規性の概念を捉えるためのモデル(または微調整)を訓練することを意味する。
実行可能な代替手段は、大きな事前訓練されたモデルによって生成された埋め込み空間の類似性を評価することであり、それ以上の学習は行わない。
論文 参考訳(メタデータ) (2023-07-12T14:10:15Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - READ: Aggregating Reconstruction Error into Out-of-distribution
Detection [5.069442437365223]
ディープニューラルネットワークは異常なデータに対する過信であることが知られている。
本稿では,READ(Reconstruction Error Aggregated Detector)を提案する。
本手法は,従来のOOD検出アルゴリズムと比較して,FPR@95TPRの平均値を最大9.8%削減する。
論文 参考訳(メタデータ) (2022-06-15T11:30:41Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。