論文の概要: A Variational Estimator for $L_p$ Calibration Errors
- arxiv url: http://arxiv.org/abs/2602.24230v1
- Date: Fri, 27 Feb 2026 17:56:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.546899
- Title: A Variational Estimator for $L_p$ Calibration Errors
- Title(参考訳): L_p$キャリブレーション誤差に対する変分推定器
- Authors: Eugène Berta, Sacha Braun, David Holzmüller, Francis Bach, Michael I. Jordan,
- Abstract要約: 本稿では,$L_p$発散によって誘導される発散による校正誤差を,$L_p$発散によって引き起こされる広いクラス校正誤差をカバーするために,近年の変分フレームワークを拡張して,発散による校正誤差を推定する方法を示す。
- 参考スコア(独自算出の注目度): 44.81527473428586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Calibration$\unicode{x2014}$the problem of ensuring that predicted probabilities align with observed class frequencies$\unicode{x2014}$is a basic desideratum for reliable prediction with machine learning systems. Calibration error is traditionally assessed via a divergence function, using the expected divergence between predictions and empirical frequencies. Accurately estimating this quantity is challenging, especially in the multiclass setting. Here, we show how to extend a recent variational framework for estimating calibration errors beyond divergences induced induced by proper losses, to cover a broad class of calibration errors induced by $L_p$ divergences. Our method can separate over- and under-confidence and, unlike non-variational approaches, avoids overestimation. We provide extensive experiments and integrate our code in the open-source package probmetrics (https://github.com/dholzmueller/probmetrics) for evaluating calibration errors.
- Abstract(参考訳): Calibration$\unicode{x2014}$ 予測確率が観測されたクラス周波数と一致することを保証する問題$\unicode{x2014}$は、機械学習システムとの信頼性のある予測のための基本的なデシプラタムである。
キャリブレーション誤差は伝統的に、予測と経験周波数の相違を利用して発散関数によって評価される。
この量の正確な推定は、特にマルチクラス環境では困難である。
そこで本研究では, 適切な損失によって誘導される発散量を超えるキャリブレーション誤差を推定するための最近の変分フレームワークを拡張して, 発散量$L_p$により誘導される広い種類のキャリブレーション誤差をカバーする方法について述べる。
本手法は,過度信頼度と過度信頼度を分離し,過大評価を回避する。
我々は、校正エラーを評価するために、大規模な実験を行い、オープンソースパッケージのprobmetrics(https://github.com/dholzmueller/probmetrics)にコードを統合します。
関連論文リスト
- Scalable Utility-Aware Multiclass Calibration [53.28176049547449]
ユーティリティキャリブレーション(英: Utility calibration)は、特定のユーティリティ関数に対するキャリブレーション誤差を測定する一般的なフレームワークである。
我々は、このフレームワークが既存のキャリブレーションメトリクスを統一し、再解釈する方法を実証する。
論文 参考訳(メタデータ) (2025-10-29T12:32:14Z) - Enforcing Calibration in Multi-Output Probabilistic Regression with Pre-rank Regularization [4.065502917666599]
任意のプリランク関数のトレーニング中に多変量キャリブレーションを強制する一般的な正規化フレームワークを提案する。
本手法は,予測精度を犠牲にすることなく,プリランク関数のキャリブレーションを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-10-24T09:16:12Z) - Rethinking Early Stopping: Refine, Then Calibrate [49.966899634962374]
キャリブレーション・リファインメント分解の新規な変分定式化について述べる。
我々は,校正誤差と精錬誤差が訓練中に同時に最小化されないという理論的,実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-01-31T15:03:54Z) - Reassessing How to Compare and Improve the Calibration of Machine Learning Models [7.183341902583164]
結果の予測確率がモデル予測に基づいてその結果の観測周波数と一致した場合、機械学習モデルを校正する。
キャリブレーションと予測の指標が追加の一般化の指標を伴わない限り、最先端のように見えるような簡単な再校正手法が存在することを示す。
論文 参考訳(メタデータ) (2024-06-06T13:33:45Z) - Orthogonal Causal Calibration [55.28164682911196]
我々は、因果校正作業を標準(非因果予測モデル)の校正作業に還元する一般的なアルゴリズムを開発する。
以上の結果から,既存のキャリブレーションアルゴリズムを因果的設定に応用できることが示唆された。
論文 参考訳(メタデータ) (2024-06-04T03:35:25Z) - Consistent and Asymptotically Unbiased Estimation of Proper Calibration
Errors [23.819464242327257]
本稿では,全ての適切な校正誤差と精錬項を一貫した推定を可能にする手法を提案する。
ニューラルネットワークにおける情報単調性を意味するf-分節と精製の関係を実証する。
本実験は,提案した推定器のクレーム特性を検証し,特に関心のキャリブレーション誤差によって,ポストホックキャリブレーション法の選択が決定されるべきであることを示唆した。
論文 参考訳(メタデータ) (2023-12-14T01:20:08Z) - A Consistent and Differentiable Lp Canonical Calibration Error Estimator [21.67616079217758]
ディープニューラルネットワークは校正が不十分で、自信過剰な予測を出力する傾向がある。
ディリクレ核密度推定に基づく低バイアス・トレーニング可能な校正誤差推定器を提案する。
提案手法はカーネルの自然な選択であり,他の量の一貫した推定値を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-10-13T15:11:11Z) - Localized Calibration: Metrics and Recalibration [133.07044916594361]
完全大域キャリブレーションと完全個別化キャリブレーションのギャップにまたがる細粒度キャリブレーション指標を提案する。
次に,局所再校正法であるLoReを導入し,既存の校正法よりもLCEを改善する。
論文 参考訳(メタデータ) (2021-02-22T07:22:12Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。