論文の概要: Classification with Reject Option: Distribution-free Error Guarantees via Conformal Prediction
- arxiv url: http://arxiv.org/abs/2506.21802v1
- Date: Thu, 26 Jun 2025 23:04:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.026654
- Title: Classification with Reject Option: Distribution-free Error Guarantees via Conformal Prediction
- Title(参考訳): リジェクションオプションによる分類:等式予測による配当不要誤差保証
- Authors: Johan Hallberg Szabadváry, Tuwe Löfström, Ulf Johansson, Cecilia Sönströd, Ernst Ahlberg, Lars Carlsson,
- Abstract要約: 我々は、二項分類におけるリジェクションオプションによる機械学習のアプローチを定式化する。
結果の誤差率に関する理論的保証を提供する。
エラー・リジェクト曲線は、エラーレートとリジェクトレートの間のトレードオフを示している。
- 参考スコア(独自算出の注目度): 1.1380162891529535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) models always make a prediction, even when they are likely to be wrong. This causes problems in practical applications, as we do not know if we should trust a prediction. ML with reject option addresses this issue by abstaining from making a prediction if it is likely to be incorrect. In this work, we formalise the approach to ML with reject option in binary classification, deriving theoretical guarantees on the resulting error rate. This is achieved through conformal prediction (CP), which produce prediction sets with distribution-free validity guarantees. In binary classification, CP can output prediction sets containing exactly one, two or no labels. By accepting only the singleton predictions, we turn CP into a binary classifier with reject option. Here, CP is formally put in the framework of predicting with reject option. We state and prove the resulting error rate, and give finite sample estimates. Numerical examples provide illustrations of derived error rate through several different conformal prediction settings, ranging from full conformal prediction to offline batch inductive conformal prediction. The former has a direct link to sharp validity guarantees, whereas the latter is more fuzzy in terms of validity guarantees but can be used in practice. Error-reject curves illustrate the trade-off between error rate and reject rate, and can serve to aid a user to set an acceptable error rate or reject rate in practice.
- Abstract(参考訳): 機械学習(ML)モデルは、たとえ間違っていたとしても、常に予測します。
これは、予測を信頼すべきかどうかわからないため、実用的なアプリケーションで問題を引き起こす。
リジェクションオプションを持つMLは、この問題に対処するため、誤った可能性があるという予測を控える。
本研究では、二項分類におけるリジェクションオプションによるMLへのアプローチを定式化し、結果の誤差率に関する理論的保証を導出する。
これは、分布のない妥当性を保証する予測セットを生成する共形予測(CP)によって達成される。
二項分類では、CPは正確に1つ、2つまたはそれ以上のラベルを含む予測セットを出力することができる。
シングルトン予測のみを受け入れることで、CPをリジェクションオプション付きバイナリ分類子にする。
ここで、CPは正式にrejectオプションで予測するフレームワークに置かれる。
得られた誤差率を記述し、証明し、有限サンプル推定を与える。
数値的な例は、完全共形予測からオフラインバッチ帰納的共形予測まで、いくつかの異なる共形予測設定を通じて導出誤差率の図示を提供する。
前者は鋭い妥当性保証に直接リンクするが、後者は妥当性保証の観点からはファジィであるが、実際は使用することができる。
エラー・リジェクト曲線は、エラーレートとリジェクトレートのトレードオフを示し、ユーザが実際に許容できるエラーレートやリジェクトレートを設定するのに役立つ。
関連論文リスト
- COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Optimal Conformal Prediction under Epistemic Uncertainty [61.46247583794497]
コンフォーマル予測(CP)は不確実性を表すための一般的なフレームワークである。
条件付きカバレッジを保証する最小の予測セットを生成するBernoulli予測セット(BPS)を導入する。
1次予測を与えられた場合、BPSはよく知られた適応予測セット(APS)に還元する。
論文 参考訳(メタデータ) (2025-05-25T08:32:44Z) - Conformal Prediction Sets with Improved Conditional Coverage using Trust Scores [52.92618442300405]
有限サンプルにおいて、正確に分布のない条件付きカバレッジを達成することは不可能である。
本稿では,最も重要となる範囲を対象とするコンフォメーション予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-17T12:01:56Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Conformal Prediction for Deep Classifier via Label Ranking [29.784336674173616]
コンフォーマル予測(Conformal prediction)は、予測セットを所望のカバレッジ保証で生成する統計フレームワークである。
我々は、$textitSorted Adaptive Prediction Sets$ (SAPS)という新しいアルゴリズムを提案する。
SAPSは最大ソフトマックス確率を除いて全ての確率値を捨てる。
論文 参考訳(メタデータ) (2023-10-10T08:54:14Z) - Post-selection Inference for Conformal Prediction: Trading off Coverage
for Precision [0.0]
伝統的に、共形予測推論はデータに依存しない発見レベルの仕様を必要とする。
我々は,データ依存的誤発見レベルを考慮した同時共形推論を開発する。
論文 参考訳(メタデータ) (2023-04-12T20:56:43Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。