論文の概要: From Misclassifications to Outliers: Joint Reliability Assessment in Classification
- arxiv url: http://arxiv.org/abs/2603.03903v1
- Date: Wed, 04 Mar 2026 10:11:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.261544
- Title: From Misclassifications to Outliers: Joint Reliability Assessment in Classification
- Title(参考訳): 誤分類から外れへ:分類における共同信頼性評価
- Authors: Yang Li, Youyang Sha, Yinzhi Wang, Timothy Hospedales, Xi Shen, Shell Xu Hu, Xuanlong Yu,
- Abstract要約: 信頼性の高いシステムは、アウト・オブ・ディストリビューション(OOD)入力を検出するだけでなく、イン・ディストリビューション(ID)エラーを予測すべきである。
OOD検出と故障予測を統合した統合評価フレームワークを提案する。
さまざまなシナリオにおける信頼性を大幅に向上する新しいアプローチであるSURE+を紹介します。
- 参考スコア(独自算出の注目度): 13.95428115564986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building reliable classifiers is a fundamental challenge for deploying machine learning in real-world applications. A reliable system should not only detect out-of-distribution (OOD) inputs but also anticipate in-distribution (ID) errors by assigning low confidence to potentially misclassified samples. Yet, most prior work treats OOD detection and failure prediction as separated problems, overlooking their closed connection. We argue that reliability requires evaluating them jointly. To this end, we propose a unified evaluation framework that integrates OOD detection and failure prediction, quantified by our new metrics DS-F1 and DS-AURC, where DS denotes double scoring functions. Experiments on the OpenOOD benchmark show that double scoring functions yield classifiers that are substantially more reliable than traditional single scoring approaches. Our analysis further reveals that OOD-based approaches provide notable gains under simple or far-OOD shifts, but only marginal benefits under more challenging near-OOD conditions. Beyond evaluation, we extend the reliable classifier SURE and introduce SURE+, a new approach that significantly improves reliability across diverse scenarios. Together, our framework, metrics, and method establish a new benchmark for trustworthy classification and offer practical guidance for deploying robust models in real-world settings. The source code is publicly available at https://github.com/Intellindust-AI-Lab/SUREPlus.
- Abstract(参考訳): 信頼性の高い分類器を構築することは、現実世界のアプリケーションに機械学習をデプロイする上での根本的な課題である。
信頼性の高いシステムは、アウト・オブ・ディストリビューション(OOD)の入力を検出するだけでなく、低い信頼度を潜在的に分類されていないサンプルに割り当てることで、イン・ディストリビューション(ID)エラーを予測すべきである。
しかし、これまでのほとんどの作業では、OOD検出と障害予測を分離した問題として扱い、そのクローズドな接続を見渡しています。
信頼性は共同で評価する必要があると我々は主張する。
そこで本研究では,新たな指標DS-F1とDS-AURCを用いて,OOD検出と故障予測を統合した統合評価フレームワークを提案する。
OpenOODベンチマークの実験により、二重スコアリング関数は従来のシングルスコアリング手法よりもかなり信頼性の高い分類器が得られることが示された。
分析の結果,OODをベースとしたアプローチは,単純あるいは遠方的シフトにおいて顕著な利益をもたらすが,より困難な近方OOD条件下では限界的な利益しか得られないことが明らかとなった。
評価以外にも、信頼性の高い分類器 SURE を拡張し、様々なシナリオにおける信頼性を大幅に向上させる新しいアプローチ SURE+ を導入する。
フレームワーク,メトリクス,メソッドを合わせて,信頼性の高い分類のための新しいベンチマークを確立し,実環境において堅牢なモデルをデプロイするための実践的なガイダンスを提供する。
ソースコードはhttps://github.com/Intellindust-AI-Lab/SUREPlusで公開されている。
関連論文リスト
- Revisiting Logit Distributions for Reliable Out-of-Distribution Detection [73.9121001113687]
アウト・オブ・ディストリビューション(OOD)検出は、オープンワールドアプリケーションにおけるディープラーニングモデルの信頼性を保証するために重要である。
LogitGapは、最大ロジットと残りのロジットの関係を利用する、ポストホックなOOD検出手法である。
我々は、LogitGapが様々なOOD検出シナリオとベンチマークにわたって、最先端のパフォーマンスを一貫して達成していることを示す。
論文 参考訳(メタデータ) (2025-10-23T02:16:45Z) - TrustLoRA: Low-Rank Adaptation for Failure Detection under Out-of-distribution Data [62.22804234013273]
本稿では,共変量および意味的シフトの両条件下での拒絶による分類を統一し,促進する,単純な故障検出フレームワークを提案する。
キーとなる洞察は、障害固有の信頼性知識を低ランクアダプタで分離し、統合することにより、障害検出能力を効果的かつ柔軟に向上できるということです。
論文 参考訳(メタデータ) (2025-04-20T09:20:55Z) - What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - Margin-bounded Confidence Scores for Out-of-Distribution Detection [2.373572816573706]
本稿では,非自明なOOD検出問題に対処するため,Margin bounded Confidence Scores (MaCS) と呼ばれる新しい手法を提案する。
MaCS は ID と OOD のスコアの差を拡大し、決定境界をよりコンパクトにする。
画像分類タスクのための様々なベンチマークデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-22T05:40:25Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Distilling the Unknown to Unveil Certainty [66.29929319664167]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)データから逸脱するテストサンプルを識別し、ネットワークの堅牢性と信頼性を確保するために重要である。
本稿では,ネットワークからOOD感受性情報を抽出し,IDとOODサンプルを識別可能なバイナリ分類器を開発するための,OOD知識蒸留のためのフレキシブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-14T08:05:02Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。