論文の概要: Decomposing Probabilistic Scores: Reliability, Information Loss and Uncertainty
- arxiv url: http://arxiv.org/abs/2603.15232v1
- Date: Mon, 16 Mar 2026 13:09:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.298001
- Title: Decomposing Probabilistic Scores: Reliability, Information Loss and Uncertainty
- Title(参考訳): 確率的スコアの分解:信頼性、情報損失、不確実性
- Authors: Arthur Charpentier, Agathe Fernandes-Machado,
- Abstract要約: 我々は、条件付き特性を明示する任意の適切な損失に対する分解IDを開発する。
我々はこのフレームワークを利用して、ポストホックリカレーション、モデルのアグリゲーション、ステージワイズ/ブースティングの構成を分析します。
- 参考スコア(独自算出の注目度): 4.033641609534416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Calibration is a conditional property that depends on the information retained by a predictor. We develop decomposition identities for arbitrary proper losses that make this dependence explicit. At any information level $\mathcal A$, the expected loss of an $\mathcal A$-measurable predictor splits into a proper-regret (reliability) term and a conditional entropy (residual uncertainty) term. For nested levels $\mathcal A\subseteq\mathcal B$, a chain decomposition quantifies the information gain from $\mathcal A$ to $\mathcal B$. Applied to classification with features $\boldsymbol{X}$ and score $S=s(\boldsymbol{X})$, this yields a three-term identity: miscalibration, a {\em grouping} term measuring information loss from $\boldsymbol{X}$ to $S$, and irreducible uncertainty at the feature level. We leverage the framework to analyze post-hoc recalibration, aggregation of calibrated models, and stagewise/boosting constructions, with explicit forms for Brier and log-loss.
- Abstract(参考訳): キャリブレーション(Calibration)は、予測者が保持する情報に依存する条件付きプロパティである。
我々は、この依存を明示する任意の適切な損失に対する分解IDを開発する。
任意の情報レベル$\mathcal A$では、$\mathcal A$-measurable predictorの期待損失は、適切な回帰(信頼性)項と条件エントロピー(残留不確実性)項に分けられる。
ネストレベル$\mathcal A\subseteq\mathcal B$の場合、チェーン分解は$\mathcal A$から$\mathcal B$への情報ゲインを定量化する。
特徴量 $\boldsymbol{X}$ とスコア $S=s(\boldsymbol{X})$ の分類に適用すると、3項の同一性が得られる:誤校正、情報損失を $\boldsymbol{X}$ から $S$ まで測定する a {\em grouping} 項、特徴量における既約不確実性。
我々は、このフレームワークを利用して、Brierとlog-lossの明示的な形式を用いて、ポストホックリカレーション、キャリブレーションされたモデルの集約、ステージワイズ/ブースティングの構成を分析する。
関連論文リスト
- Phase-space entropy at acquisition reflects downstream learnability [54.4100065023873]
楽器分解位相空間に基づく取得レベルスカラー$S_mathcal B$を提案する。
本稿では, (S_mathcal B) が周期サンプリングの位相空間コヒーレンスを正確に同定できることを理論的に示す。
$|S_mathcal B|$は一貫してサンプリングジオメトリをランク付けし、トレーニングなしで下流での再構築/認識の困難を予測します。
論文 参考訳(メタデータ) (2025-12-22T10:03:51Z) - Omnipredictors for Regression and the Approximate Rank of Convex
Functions [7.549720420141907]
クラス $mathcal L$ の損失関数とクラス $mathcal C$ の損失予測器は、$mathcal L$ の損失毎に $mathcal C$ の最良の仮説よりも予想される損失が少ない予測器である。
論文 参考訳(メタデータ) (2024-01-26T04:29:53Z) - Supervised learning with probabilistic morphisms and kernel mean embeddings [0.0]
本稿では,教師あり学習における2つのアプローチを統一した教師あり学習モデルを提案する。
統計的学習理論において無視されてきた2つの測定可能性問題に対処する。
不正な問題を解くために,Vapnik-Stefanuykの正規化手法の変種を提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:21Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - How Does Pseudo-Labeling Affect the Generalization Error of the
Semi-Supervised Gibbs Algorithm? [73.80001705134147]
擬似ラベル付き半教師付き学習(SSL)におけるGibsアルゴリズムによる予測一般化誤差(ゲンエラー)を正確に評価する。
ゲンエラーは、出力仮説、擬ラベルデータセット、ラベル付きデータセットの間の対称性付きKL情報によって表現される。
論文 参考訳(メタデータ) (2022-10-15T04:11:56Z) - Agnostic Learning of Halfspaces with Gradient Descent via Soft Margins [92.7662890047311]
勾配降下は、分類誤差$tilde O(mathsfOPT1/2) + varepsilon$ in $mathrmpoly(d,1/varepsilon)$ time and sample complexity.
論文 参考訳(メタデータ) (2020-10-01T16:48:33Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。