論文の概要: Multiclass Calibration Assessment and Recalibration of Probability Predictions via the Linear Log Odds Calibration Function
- arxiv url: http://arxiv.org/abs/2602.18573v1
- Date: Fri, 20 Feb 2026 19:29:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.169418
- Title: Multiclass Calibration Assessment and Recalibration of Probability Predictions via the Linear Log Odds Calibration Function
- Title(参考訳): 線形ログオッズ校正関数を用いたマルチクラス校正評価と確率予測の校正
- Authors: Amy Vennos, Xin Xing, Christopher T. Franck,
- Abstract要約: 本稿では,MCLLO(Multicategory Linear Log Odds)の再校正を提案する。
MCLLOは、キャリブレーションを評価するための可能性比仮説テストを含む。
シミュレーションと実世界の3つのケーススタディにより, MCLLO法の有効性を実証した。
- 参考スコア(独自算出の注目度): 1.1636660052962862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine-generated probability predictions are essential in modern classification tasks such as image classification. A model is well calibrated when its predicted probabilities correspond to observed event frequencies. Despite the need for multicategory recalibration methods, existing methods are limited to (i) comparing calibration between two or more models rather than directly assessing the calibration of a single model, (ii) requiring under-the-hood model access, e.g., accessing logit-scale predictions within the layers of a neural network, and (iii) providing output which is difficult for human analysts to understand. To overcome (i)-(iii), we propose Multicategory Linear Log Odds (MCLLO) recalibration, which (i) includes a likelihood ratio hypothesis test to assess calibration, (ii) does not require under-the-hood access to models and is thus applicable on a wide range of classification problems, and (iii) can be easily interpreted. We demonstrate the effectiveness of the MCLLO method through simulations and three real-world case studies involving image classification via convolutional neural network, obesity analysis via random forest, and ecology via regression modeling. We compare MCLLO to four comparator recalibration techniques utilizing both our hypothesis test and the existing calibration metric Expected Calibration Error to show that our method works well alone and in concert with other methods.
- Abstract(参考訳): 機械が生成する確率予測は、画像分類のような現代の分類タスクにおいて不可欠である。
予測確率が観測された事象周波数に対応する場合、モデルはよく校正される。
複数カテゴリの再校正法は必要とされているが、既存の手法は限定されている。
一 一つのモデルの校正を直接評価するのではなく、2つ以上のモデルの校正を比較すること。
(ii)ニューラルネットワークの層内のロジットスケール予測へのアクセスなど、内部モデルアクセスを必要とする。
三 人間のアナリストが理解し難い出力を提供すること。
乗り越える
(i)-
(iii)MCLLO(Multicategory Linear Log Odds)の再校正を提案する。
i)キャリブレーションを評価するための可能性比仮説テストを含む。
(ii)モデルへの内部アクセスを必要としないため、幅広い分類問題に適用できる。
(iii)は容易に解釈できる。
本稿では, 畳み込みニューラルネットワークによる画像分類, ランダム森林による肥満分析, 回帰モデルによる生態学の3つの実世界のケーススタディとシミュレーションによるMCLLO法の有効性を実証する。
MCLLOと既存の校正基準であるキャリブレーション誤差を用いた4つのコンパレータの校正手法を比較し,本手法が単独で,他の手法と協調して動作することを示す。
関連論文リスト
- Improving Multi-Class Calibration through Normalization-Aware Isotonic Techniques [3.2514496966247535]
多クラスキャリブレーションのための新しいアイソトニック正規化対応手法を提案する。
従来の手法とは異なり、本手法は本質的に確率正規化を考慮に入れている。
提案手法は, 負の対数類似度(NLL)と期待校正誤差(ECE)を常に改善する。
論文 参考訳(メタデータ) (2025-12-09T19:15:19Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Calibration tests beyond classification [30.616624345970973]
ほとんどの教師付き機械学習タスクは、既約予測エラーを被る。
確率論的予測モデルは、妥当な目標に対する信念を表す確率分布を提供することによって、この制限に対処する。
校正されたモデルは、予測が過信でも過信でもないことを保証します。
論文 参考訳(メタデータ) (2022-10-21T09:49:57Z) - Modular Conformal Calibration [80.33410096908872]
回帰における再校正のためのアルゴリズムを多種多様なクラスで導入する。
このフレームワークは、任意の回帰モデルをキャリブレーションされた確率モデルに変換することを可能にする。
我々は17の回帰データセットに対するMCCの実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-23T03:25:23Z) - On the Calibration of Pre-trained Language Models using Mixup Guided by
Area Under the Margin and Saliency [47.90235939359225]
モデルキャリブレーションをさらに改善する事前学習型言語モデルのための新しい混合戦略を提案する。
本手法は,ドメイン内およびドメイン外テストサンプルの強いベースラインと比較して,最小のキャリブレーション誤差を実現する。
論文 参考訳(メタデータ) (2022-03-14T23:45:08Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z) - Quantile Regularization: Towards Implicit Calibration of Regression
Models [30.872605139672086]
2つのCDF間の累積KL分散として定義される新しい量子正規化器に基づく回帰モデルの校正法を提案する。
提案手法は,Dropout VI や Deep Ensembles といった手法を用いて学習した回帰モデルのキャリブレーションを大幅に改善することを示す。
論文 参考訳(メタデータ) (2020-02-28T16:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。