論文の概要: Optimal Decision-Making Based on Prediction Sets
- arxiv url: http://arxiv.org/abs/2602.00989v2
- Date: Tue, 03 Feb 2026 02:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:28:03.714027
- Title: Optimal Decision-Making Based on Prediction Sets
- Title(参考訳): 予測集合に基づく最適意思決定
- Authors: Tao Wang, Edgar Dobriban,
- Abstract要約: 予測セットは、未知のテスト結果を保証された確率でカバーするために、任意のMLモデルをラップすることができる。
本稿では,予測セットのカバレッジ保証と一致した最悪のケース分布に対する損失(リスク)を最小限に抑えるための決定理論フレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.860889057545467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prediction sets can wrap around any ML model to cover unknown test outcomes with a guaranteed probability. Yet, it remains unclear how to use them optimally for downstream decision-making. Here, we propose a decision-theoretic framework that seeks to minimize the expected loss (risk) against a worst-case distribution consistent with the prediction set's coverage guarantee. We first characterize the minimax optimal policy for a fixed prediction set, showing that it balances the worst-case loss inside the set with a penalty for potential losses outside the set. Building on this, we derive the optimal prediction set construction that minimizes the resulting robust risk subject to a coverage constraint. Finally, we introduce Risk-Optimal Conformal Prediction (ROCP), a practical algorithm that targets these risk-minimizing sets while maintaining finite-sample distribution-free marginal coverage. Empirical evaluations on medical diagnosis and safety-critical decision-making tasks demonstrate that ROCP reduces critical mistakes compared to baselines, particularly when out-of-set errors are costly.
- Abstract(参考訳): 予測セットは、未知のテスト結果を保証された確率でカバーするために、任意のMLモデルをラップすることができる。
しかし、下流の意思決定に最適に利用する方法はまだ不明だ。
本稿では,予測集合のカバレッジ保証と整合した最悪の分布に対する損失(リスク)を最小限に抑えるための決定論的枠組みを提案する。
まず、固定された予測セットに対する最小限の最適ポリシーを特徴付け、セット内の最悪の損失と、セット外の潜在的な損失に対するペナルティとのバランスを示す。
これに基づいて, 包括的制約によるロバストリスクを最小限に抑える最適予測セット構築法を導出する。
最後に,リスク最小化セットを目標とし,有限サンプル分布自由境界カバレッジを維持しつつ,リスク最適整合予測(ROCP)を提案する。
医療診断と安全クリティカルな意思決定タスクに関する実証的な評価は、ROCPが、特にアウトオブセットエラーがコストのかかる場合に、ベースラインよりも重大なミスを減らしていることを示している。
関連論文リスト
- When Robustness Meets Conservativeness: Conformalized Uncertainty Calibration for Balanced Decision Making [8.234618636958462]
本稿では,誤発見と後悔の保証を無分布で有限サンプルで提供する新しいフレームワークを提案する。
提案手法は,不規則なフロンティアを追従する有効な推定器を構築する。
これらの結果は、ロバスト性選択を導くための、最初の原則付きデータ駆動手法を提供する。
論文 参考訳(メタデータ) (2025-10-09T03:38:17Z) - A Principled Approach to Randomized Selection under Uncertainty: Applications to Peer Review and Grant Funding [61.86327960322782]
本稿では,各項目の品質の間隔推定に基づくランダム化意思決定の枠組みを提案する。
最適化に基づく最適化手法であるMERITを導入する。
MERITが既存のアプローチで保証されていない望ましい公理特性を満たすことを証明している。
論文 参考訳(メタデータ) (2025-06-23T19:59:30Z) - Decision from Suboptimal Classifiers: Excess Risk Pre- and Post-Calibration [52.70324949884702]
バッチ二分決定における近似的後続確率を用いた余剰リスクの定量化を行う。
我々は、再校正のみが後悔のほとんどに対処する体制と、後悔が集団的損失に支配される体制を識別する。
NLP実験では、これらの量によって、より高度なポストトレーニングの期待値が運用コストに値するかどうかが分かる。
論文 参考訳(メタデータ) (2025-03-23T10:52:36Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Conformal Contextual Robust Optimization [21.2737854880866]
データ駆動による確率論的意思決定問題を予測するアプローチは、安全クリティカルな設定における不確実な領域の不確実性のリスクを軽減することを目指している。
本稿では,CPO(Conformal-Then-Predict)フレームワークを提案する。
確率列最適化による意思決定問題。
論文 参考訳(メタデータ) (2023-10-16T01:58:27Z) - On the Variance, Admissibility, and Stability of Empirical Risk Minimization [57.63331017830154]
経験的リスク最小化(ERM: Empirical Risk Minimization)は、平均2乗誤差で最小限の最適値が得られる。
比較的軽度な仮定の下では、ERMの準最適性はその大きなバイアスによるものでなければならない。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - Holdouts set for safe predictive model updating [0.4499833362998489]
リスクスコアによって導かれる介入を受けない集団のサブセットであるホールドアウトセット(holdout set)の使用を提案する。
予防接種前の症例数を最小化するためには,約1万件のホールドアウトセットを用いて実施することが最善であることを示す。
論文 参考訳(メタデータ) (2022-02-13T18:04:00Z) - Conformal Uncertainty Sets for Robust Optimization [0.0]
マハラノビス距離を多目的回帰と共同予測領域の構築のための新しい関数として用いる。
また、共形予測領域をロバストな最適化に結び付け、有限サンプル有効かつ保守的な不確実性集合を提供する。
論文 参考訳(メタデータ) (2021-05-31T13:42:24Z) - Reinforcement Learning of Risk-Constrained Policies in Markov Decision
Processes [5.081241420920605]
マルコフ決定プロセス(MDPs)は、確率的不確実性の存在下でのシーケンシャルな意思決定のためのデファクト・フレームワークである。
破滅的な結果が再帰する障害状態と相まって, 対価を割引したMDPについて検討する。
我々の主な貢献は、UDTのような探索とMDPとの学習的相互作用を組み合わせた効率的なリスク制約型プランニングアルゴリズムである。
論文 参考訳(メタデータ) (2020-02-27T13:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。