論文の概要: Out-of-Distribution Detection Methods Answer the Wrong Questions
- arxiv url: http://arxiv.org/abs/2507.01831v1
- Date: Wed, 02 Jul 2025 15:45:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.365875
- Title: Out-of-Distribution Detection Methods Answer the Wrong Questions
- Title(参考訳): 誤った質問に答えるアウト・オブ・ディストリビューション検出法
- Authors: Yucen Lily Li, Daohan Lu, Polina Kirichenko, Shikai Qiu, Tim G. J. Rudner, C. Bayan Bruss, Andrew Gordon Wilson,
- Abstract要約: 多くのアウト・オブ・ディストリビューション(OOD)検出方法は、イン・ディストリビューションデータに基づいて訓練された教師付きモデルの予測的不確実性や特徴に依存している。
我々は,不確実性に基づく手法がOODであることを示す一方で,特徴量に基づく手法が特徴量空間距離を誤ったものにするのに対し,不確実性に基づく手法はOODであることを示す。
OOD検出において,これらの病態が既約誤差であることを示すとともに,これらの方法が有効でない共通設定を同定する。
- 参考スコア(独自算出の注目度): 42.28447793943742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To detect distribution shifts and improve model safety, many out-of-distribution (OOD) detection methods rely on the predictive uncertainty or features of supervised models trained on in-distribution data. In this paper, we critically re-examine this popular family of OOD detection procedures, and we argue that these methods are fundamentally answering the wrong questions for OOD detection. There is no simple fix to this misalignment, since a classifier trained only on in-distribution classes cannot be expected to identify OOD points; for instance, a cat-dog classifier may confidently misclassify an airplane if it contains features that distinguish cats from dogs, despite generally appearing nothing alike. We find that uncertainty-based methods incorrectly conflate high uncertainty with being OOD, while feature-based methods incorrectly conflate far feature-space distance with being OOD. We show how these pathologies manifest as irreducible errors in OOD detection and identify common settings where these methods are ineffective. Additionally, interventions to improve OOD detection such as feature-logit hybrid methods, scaling of model and data size, epistemic uncertainty representation, and outlier exposure also fail to address this fundamental misalignment in objectives. We additionally consider unsupervised density estimation and generative models for OOD detection, which we show have their own fundamental limitations.
- Abstract(参考訳): 分散シフトを検出し、モデルの安全性を向上させるために、多くのアウト・オブ・ディストリビューション(OOD)検出方法は、イン・ディストリビューションデータに基づいてトレーニングされた教師付きモデルの予測不確実性や特徴に依存している。
本稿では,このOOD検出手順の一般的なファミリーを批判的に再検討し,これらの手法がOOD検出の誤った問題に根本的に答えていることを論じる。
例えば、猫犬分類器は、猫と犬を区別する特徴があるが、一般には似ていないにもかかわらず、飛行機を確実に誤分類することができる。
我々は,不確実性に基づく手法がOODと高い不確実性を誤って表すのに対して,特徴量に基づく手法はOODと遠くの特徴量距離を誤って表すことがわかった。
OOD検出において,これらの病態が既約誤差であることを示すとともに,これらの方法が有効でない共通設定を同定する。
さらに、機能論理ハイブリッド法、モデルとデータサイズのスケーリング、てんかんの不確実性表現、および外部曝露といったOOD検出の改善のための介入も、この根本的な目標の不一致に対処することができない。
さらに,OOD検出のための教師なし密度推定と生成モデルについても検討し,その基本的制約について述べる。
関連論文リスト
- Uncertainty-Aware Out-of-Distribution Detection with Gaussian Processes [13.246251147975192]
ディープニューラルネットワーク(DNN)はしばしばクローズドワールドの前提の下で構築される。
OODサンプルは、現実世界のアプリケーションでトレーニングフェーズで必ずしも利用できない。
InDデータのみに基づく決定境界を確立するために,ガウス過程に基づくOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-12-30T12:57:31Z) - Rethinking Out-of-Distribution Detection on Imbalanced Data Distribution [38.844580833635725]
アーキテクチャ設計におけるバイアスを緩和し,不均衡なOOD検出器を増強する訓練時間正規化手法を提案する。
提案手法は,CIFAR10-LT,CIFAR100-LT,ImageNet-LTのベンチマークに対して一貫した改良を行う。
論文 参考訳(メタデータ) (2024-07-23T12:28:59Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Beyond AUROC & co. for evaluating out-of-distribution detection
performance [50.88341818412508]
安全(r)AIとの関連性を考えると,OOD検出法の比較の基礎が実用的ニーズと整合しているかどうかを検討することが重要である。
我々は,IDとOODの分離が不十分なことを明示する新しい指標であるAUTC(Area Under the Threshold Curve)を提案する。
論文 参考訳(メタデータ) (2023-06-26T12:51:32Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Understanding Failures in Out-of-Distribution Detection with Deep
Generative Models [22.11487118547924]
アウト・ディストリビューションが関係する仮定なしでは、ランダムな確率を超える性能を保証する方法が存在しないことを実証する。
イン・ディストリビューションとアウト・ディストリビューションのオーバーラップを想定した上で,その影響を強調した。
以上の結果から, 推定誤差は, 可能性に基づくOOD検出と利害分布の相違よりも, より妥当な説明であることが示唆された。
論文 参考訳(メタデータ) (2021-07-14T18:00:11Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z) - Uncertainty-Based Out-of-Distribution Classification in Deep
Reinforcement Learning [17.10036674236381]
アウト・オブ・ディストリビューションデータの誤予測は、機械学習システムにおける安全性の危機的状況を引き起こす可能性がある。
我々は不確実性に基づくOOD分類のためのフレームワークUBOODを提案する。
UBOODはアンサンブルに基づく推定器と組み合わせることで,信頼性の高い分類結果が得られることを示す。
論文 参考訳(メタデータ) (2019-12-31T09:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。