論文の概要: Direct Prediction Set Minimization via Bilevel Conformal Classifier Training
- arxiv url: http://arxiv.org/abs/2506.06599v1
- Date: Sat, 07 Jun 2025 00:19:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.351683
- Title: Direct Prediction Set Minimization via Bilevel Conformal Classifier Training
- Title(参考訳): 双方向等式分類器訓練による直接予測セット最小化
- Authors: Yuanjie Shi, Hooman Shahrokhi, Xuesong Jia, Xiongzhi Chen, Janardhan Rao Doppa, Yan Yan,
- Abstract要約: コンフォーマル予測(CP)は、ブラックボックス分類器のラッパーとして機能する有望な不確実性定量化フレームワークである。
CPの標準的なキャリブレーション法は大きな予測セットを生成する傾向があるため、実際は役に立たない。
本稿では,予測集合のサイズを直接最小化するために,共形原理を深部分類器の訓練プロセスに統合する問題を考察する。
- 参考スコア(独自算出の注目度): 22.513575498491544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conformal prediction (CP) is a promising uncertainty quantification framework which works as a wrapper around a black-box classifier to construct prediction sets (i.e., subset of candidate classes) with provable guarantees. However, standard calibration methods for CP tend to produce large prediction sets which makes them less useful in practice. This paper considers the problem of integrating conformal principles into the training process of deep classifiers to directly minimize the size of prediction sets. We formulate conformal training as a bilevel optimization problem and propose the {\em Direct Prediction Set Minimization (DPSM)} algorithm to solve it. The key insight behind DPSM is to minimize a measure of the prediction set size (upper level) that is conditioned on the learned quantile of conformity scores (lower level). We analyze that DPSM has a learning bound of $O(1/\sqrt{n})$ (with $n$ training samples), while prior conformal training methods based on stochastic approximation for the quantile has a bound of $\Omega(1/s)$ (with batch size $s$ and typically $s \ll \sqrt{n}$). Experiments on various benchmark datasets and deep models show that DPSM significantly outperforms the best prior conformal training baseline with $20.46\%\downarrow$ in the prediction set size and validates our theory.
- Abstract(参考訳): コンフォーマル予測(CP)は、証明可能な保証で予測セット(すなわち候補クラスのサブセット)を構築するブラックボックス分類器のラッパーとして機能する有望な不確実性定量化フレームワークである。
しかし、CPの標準的なキャリブレーション法は大きな予測セットを生成する傾向があるため、実際は役に立たない。
本稿では,予測集合のサイズを直接最小化するために,共形原理を深部分類器の訓練プロセスに統合する問題を考察する。
コンフォメーショントレーニングを二段階最適化問題として定式化し,その解法としてDPSMアルゴリズムを提案する。
DPSMの背後にある重要な洞察は、整合性スコア(より低いレベル)の学習量に基づいて条件付けられた予測セットサイズ(上層レベル)の尺度を最小化することである。
DPSMは学習バウンダリが$O(1/\sqrt{n})$($n$のトレーニングサンプルを持つ)であるのに対して、Quantileの確率近似に基づく事前のコンフォメーショントレーニングメソッドは$Omega(1/s)$(バッチサイズが$s$、通常$s \ll \sqrt{n}$)である。
様々なベンチマークデータセットとディープモデルによる実験により、DPSMは予測セットサイズにおいて20.46\%\downarrow$で最高の事前整合トレーニングベースラインを著しく上回り、我々の理論を検証した。
関連論文リスト
- Conformal Prediction Beyond the Seen: A Missing Mass Perspective for Uncertainty Quantification in Generative Models [20.810300785340072]
Conformal Prediction with Query Oracle (CPQ)は、これらの目的間の最適な相互作用を特徴付けるフレームワークである。
本アルゴリズムは2つの基本原理に基づいて構築されている。一方は最適なクエリポリシーを規定し、他方はクエリされたサンプルから予測セットへの最適マッピングを定義する。
論文 参考訳(メタデータ) (2025-06-05T18:26:14Z) - Backward Conformal Prediction [49.1574468325115]
我々は、予測セットのサイズを柔軟に制御しながら、コンフォーマルカバレッジを保証するメソッドである$textitBackward Conformal Prediction$を紹介した。
提案手法は,観測データに基づいて,予測セットサイズがどう振る舞うかを制約するルールを定義し,それに応じてカバレッジレベルを適応させる。
このアプローチは、医療診断のような大きな予測セットが実用的でないアプリケーションで特に有用である。
論文 参考訳(メタデータ) (2025-05-19T21:08:14Z) - Robust Conformal Prediction with a Single Binary Certificate [58.450154976190795]
コンフォーマル予測(CP)は、任意のモデルの出力を、真のラベルを(調整可能な)高い確率でカバーすることを保証した予測セットに変換する。
我々は,MCサンプルが著しく低い場合でも,より小さな集合を生成する頑健な共形予測を提案する。
論文 参考訳(メタデータ) (2025-03-07T08:41:53Z) - Volume Optimality in Conformal Prediction with Structured Prediction Sets [22.923139209762788]
コンフォーマル予測(Conformal Prediction)は、将来の観測の予測セットを構築するための、広く研究されている手法である。
まず、任意の分布自由法が自明な解しか見つからないような体積最適性の不可能性を証明する。
次に、ある集合に属する予測集合を制限することにより、体積最適性という新しい概念を導入する。
論文 参考訳(メタデータ) (2025-02-23T17:31:33Z) - Provably Robust Conformal Prediction with Improved Efficiency [29.70455766394585]
コンフォーマル予測は、保証されたカバレッジで不確実性セットを生成する強力なツールである。
逆の例は、不正なカバレッジ率の予測セットを構築するために共形メソッドを操作することができる。
本稿では,PTT(Post-Training Transformation)とRCT(Robust Conformal Training)という2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:49:01Z) - Minimum-Risk Recalibration of Classifiers [9.31067660373791]
平均二乗誤差分解の枠組みにおいて,最小リスク再校正の概念を導入する。
校正分類器の転送には,スクラッチから再校正するのに比べて,ターゲットサンプルが著しく少ないことが示されている。
論文 参考訳(メタデータ) (2023-05-18T11:27:02Z) - Conformal Nucleus Sampling [67.5232384936661]
最上位のp$集合が、様々な言語文脈における確率的意味と実際に一致しているかを評価する。
OPTモデルは過信であり、キャリブレーションはモデルサイズで適度な逆スケーリングを示す。
論文 参考訳(メタデータ) (2023-05-04T08:11:57Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。