論文の概要: Efficient Calibration for Decision Making
- arxiv url: http://arxiv.org/abs/2511.13699v1
- Date: Mon, 17 Nov 2025 18:52:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.684573
- Title: Efficient Calibration for Decision Making
- Title(参考訳): 意思決定のための効率的な校正
- Authors: Parikshit Gopalan, Konstantinos Stavropoulos, Kunal Talwar, Pranay Tankala,
- Abstract要約: HuとWu(FOCS'24)はこれを、キャリブレーション決定損失(mathsfCDL$)と呼ばれる近似キャリブレーション尺度を定義するために使用する。
我々は、$mathsfCDL_K$が情報理論および計算学的に抽出可能なときの包括的理論を開発する。
- 参考スコア(独自算出の注目度): 26.81026842833163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A decision-theoretic characterization of perfect calibration is that an agent seeking to minimize a proper loss in expectation cannot improve their outcome by post-processing a perfectly calibrated predictor. Hu and Wu (FOCS'24) use this to define an approximate calibration measure called calibration decision loss ($\mathsf{CDL}$), which measures the maximal improvement achievable by any post-processing over any proper loss. Unfortunately, $\mathsf{CDL}$ turns out to be intractable to even weakly approximate in the offline setting, given black-box access to the predictions and labels. We suggest circumventing this by restricting attention to structured families of post-processing functions $K$. We define the calibration decision loss relative to $K$, denoted $\mathsf{CDL}_K$ where we consider all proper losses but restrict post-processings to a structured family $K$. We develop a comprehensive theory of when $\mathsf{CDL}_K$ is information-theoretically and computationally tractable, and use it to prove both upper and lower bounds for natural classes $K$. In addition to introducing new definitions and algorithmic techniques to the theory of calibration for decision making, our results give rigorous guarantees for some widely used recalibration procedures in machine learning.
- Abstract(参考訳): 完璧なキャリブレーションの決定論的特徴は、予測における適切な損失を最小化しようとするエージェントが、完全にキャリブレーションされた予測器を後処理することで結果を改善することができないことである。
HuとWu(FOCS'24)はこれを、キャリブレーション決定損失(\mathsf{CDL}$)と呼ばれる、任意の適切な損失に対する後処理によって達成可能な最大改善を測定する近似キャリブレーション尺度を定義するために使用する。
残念なことに、$\mathsf{CDL}$は、予測やラベルへのブラックボックスアクセスが与えられたとき、オフライン設定でさらに弱い近似をすることができる。
後処理関数の構造化された族に注意を向けることによってこれを回避することを提案する。
キャリブレーション決定損失を$K$に対して定義し、$\mathsf{CDL}_K$と表記する。
我々は、$\mathsf{CDL}_K$ が情報理論的かつ計算的に抽出可能なときの包括的理論を開発し、それを自然クラス $K$ の上限と下限の両方を証明するために利用する。
意思決定の校正理論に新たな定義やアルゴリズム技術を導入することに加えて,機械学習において広く用いられている校正手順の厳密な保証も行った。
関連論文リスト
- Smooth Calibration and Decision Making [11.51844809748468]
オンライン予測器をキャリブレーションするために$eps$で後処理すると、$O(sqrtepsilon)$ ECEとCDLが得られることを示す。
最適境界は、既存のオンラインキャリブレーションアルゴリズムと比較して最適ではない。
論文 参考訳(メタデータ) (2025-04-22T04:55:41Z) - Decision from Suboptimal Classifiers: Excess Risk Pre- and Post-Calibration [52.70324949884702]
バッチ二分決定における近似的後続確率を用いた余剰リスクの定量化を行う。
我々は、再校正のみが後悔のほとんどに対処する体制と、後悔が集団的損失に支配される体制を識別する。
NLP実験では、これらの量によって、より高度なポストトレーニングの期待値が運用コストに値するかどうかが分かる。
論文 参考訳(メタデータ) (2025-03-23T10:52:36Z) - Orthogonal Causal Calibration [55.28164682911196]
我々は、因果校正作業を標準(非因果予測モデル)の校正作業に還元する一般的なアルゴリズムを開発する。
以上の結果から,既存のキャリブレーションアルゴリズムを因果的設定に応用できることが示唆された。
論文 参考訳(メタデータ) (2024-06-04T03:35:25Z) - Calibration Error for Decision Making [15.793486463552144]
そこで本研究では,決定理論のキャリブレーション誤差である決定損失(CDL)を,予測値から得られる意思決定報酬の最大化として定義する。
CDLと既存の校正誤差メトリクスの分離を示す。
我々の主な技術的貢献は、ほぼ最適の$O(fraclog TsqrtT)$期待のCDLを達成する、オンラインキャリブレーションのための新しい効率的なアルゴリズムである。
論文 参考訳(メタデータ) (2024-04-21T01:53:20Z) - Calibrating Predictions to Decisions: A Novel Approach to Multi-Class
Calibration [118.26862029820447]
我々は、下流の意思決定者に対して、予測された分布と真の分布を区別不能にする必要がある新しい概念、即時校正を導入します。
決定キャリブレーションは、皮膚病変の判定と、現代のニューラルネットワークを用いたImageNet分類を改善する。
論文 参考訳(メタデータ) (2021-07-12T20:17:28Z) - Localized Calibration: Metrics and Recalibration [133.07044916594361]
完全大域キャリブレーションと完全個別化キャリブレーションのギャップにまたがる細粒度キャリブレーション指標を提案する。
次に,局所再校正法であるLoReを導入し,既存の校正法よりもLCEを改善する。
論文 参考訳(メタデータ) (2021-02-22T07:22:12Z) - Post-hoc Calibration of Neural Networks by g-Layers [51.42640515410253]
近年、ニューラルネットワークの校正に関する研究が急増している。
負ログライクリーフ(NLL)の最小化は、グローバルな最適化が達成されれば、トレーニングセット上の校正ネットワークにつながることが知られている。
基本ネットワーク (f$) が NLL のグローバルな最適化に繋がらず,追加レイヤ (g$) を追加し,パラメータを$g$ 1 に最適化することで NLL を最小化することで,キャリブレーションネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T07:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。