論文の概要: Cost-Sensitive Conformal Training with Provably Controllable Learning Bounds
- arxiv url: http://arxiv.org/abs/2511.17861v1
- Date: Sat, 22 Nov 2025 01:11:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.482288
- Title: Cost-Sensitive Conformal Training with Provably Controllable Learning Bounds
- Title(参考訳): 確率的制御可能な学習境界を用いたコスト感性コンフォーマルトレーニング
- Authors: Xuesong Jia, Yuanjie Shi, Ziquan Liu, Yi Xu, Yan Yan,
- Abstract要約: コンフォーマル予測は、機械学習モデルの予測の不確実性を定量化するフレームワークである。
CPが測定した不確実性を調整するため、共形学習法は予測セットのサイズを最小化する。
本稿では,インジケータ近似機構に依存しない簡易なコスト依存型コンフォメーショントレーニングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 21.86960662161151
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conformal prediction (CP) is a general framework to quantify the predictive uncertainty of machine learning models that uses a set prediction to include the true label with a valid probability. To align the uncertainty measured by CP, conformal training methods minimize the size of the prediction sets. A typical way is to use a surrogate indicator function, usually Sigmoid or Gaussian error function. However, these surrogate functions do not have a uniform error bound to the indicator function, leading to uncontrollable learning bounds. In this paper, we propose a simple cost-sensitive conformal training algorithm that does not rely on the indicator approximation mechanism. Specifically, we theoretically show that minimizing the expected size of prediction sets is upper bounded by the expected rank of true labels. To this end, we develop a rank weighting strategy that assigns the weight using the rank of true label on each data sample. Our analysis provably demonstrates the tightness between the proposed weighted objective and the expected size of conformal prediction sets. Extensive experiments verify the validity of our theoretical insights, and superior empirical performance over other conformal training in terms of predictive efficiency with 21.38% reduction for average prediction set size.
- Abstract(参考訳): コンフォーマル予測(Conformal Prediction, CP)は、機械学習モデルの予測不確かさを定量化するための一般的なフレームワークである。
CPが測定した不確実性を調整するため、共形学習法は予測セットのサイズを最小化する。
典型的な方法は、代理指標関数(通常はシグモイドあるいはガウス誤差関数)を使用することである。
しかし、これらの代理関数はインジケータ関数に一様誤差を持たず、制御不能な学習境界をもたらす。
本稿では,インジケータ近似機構に依存しない簡易なコスト依存型コンフォメーショントレーニングアルゴリズムを提案する。
具体的には、予測セットの期待サイズを最小化することは、真のラベルの期待ランクによって上限づけられていることが理論的に示される。
この目的のために,各データサンプルに真のラベルのランクを用いて重みを割り当てるランク重み付け戦略を開発した。
本分析は,提案した重み付き目標と共形予測セットの期待サイズとの密接度を実証する。
平均予測セットサイズを21.38%削減した予測効率で、我々の理論的洞察の有効性と、他のコンフォメーショントレーニングよりも優れた経験的性能を検証した。
関連論文リスト
- Beyond Conformal Predictors: Adaptive Conformal Inference with Confidence Predictors [1.3812010983144802]
本研究は,適応整形推論(ACI)の望ましい性質が整形予測器(CP)の使用を必要としないことを示す。
非互換信頼予測器(NCCP)の非交換データに対するACI使用時のCPに対する性能を実証的に検討した。
論文 参考訳(メタデータ) (2024-09-23T21:02:33Z) - On the Expected Size of Conformal Prediction Sets [24.161372736642157]
分割共形予測フレームワークを用いて,予測セットの予測サイズを理論的に定量化する。
この正確な定式化は通常直接計算できないので、点推定と高確率境界間隔を導出する。
回帰と分類の両問題に対する実世界のデータセットを用いた実験により,結果の有効性を裏付ける。
論文 参考訳(メタデータ) (2023-06-12T17:22:57Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Predictive Inference with Feature Conformal Prediction [80.77443423828315]
本稿では,特徴空間への共形予測の範囲を拡大する特徴共形予測を提案する。
理論的観点からは、特徴共形予測は軽度の仮定の下で正則共形予測よりも確実に優れていることを示す。
提案手法は,バニラ共形予測だけでなく,他の適応共形予測手法と組み合わせることができる。
論文 参考訳(メタデータ) (2022-10-01T02:57:37Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Optimized conformal classification using gradient descent approximation [0.2538209532048866]
コンフォーマル予測器は、ユーザ定義の信頼性レベルで予測を行うことができる。
我々は,共形予測器を直接最大予測効率で訓練する手法を検討する。
実世界の複数のデータセット上で本手法を検証し,本手法が有望であることを示す。
論文 参考訳(メタデータ) (2021-05-24T13:14:41Z) - Distribution-Free, Risk-Controlling Prediction Sets [112.9186453405701]
ユーザ特定レベルにおける将来のテストポイントにおける期待損失を制御するブラックボックス予測器から設定値予測を生成する方法を示す。
提案手法は,予測セットのサイズをキャリブレーションするホールドアウトセットを用いて,任意のデータセットに対して明確な有限サンプル保証を提供する。
論文 参考訳(メタデータ) (2021-01-07T18:59:33Z) - AutoCP: Automated Pipelines for Accurate Prediction Intervals [84.16181066107984]
本稿では、自動予測のための自動機械学習(Automatic Machine Learning for Conformal Prediction, AutoCP)というAutoMLフレームワークを提案する。
最高の予測モデルを選択しようとする慣れ親しんだAutoMLフレームワークとは異なり、AutoCPは、ユーザが指定したターゲットカバレッジ率を達成する予測間隔を構築する。
さまざまなデータセットでAutoCPをテストしたところ、ベンチマークアルゴリズムを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2020-06-24T23:13:11Z) - Training conformal predictors [0.0]
共形予測の効率基準は、一般に、与えられた共形予測器の性能を評価するために用いられる。
そこで本研究では,そのような基準をエンフラーン分類器に活用できるかどうかを考察する。
論文 参考訳(メタデータ) (2020-05-14T14:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。