論文の概要: Uncertainty-Aware Post-Hoc Calibration: Mitigating Confidently Incorrect Predictions Beyond Calibration Metrics
- arxiv url: http://arxiv.org/abs/2510.17915v1
- Date: Sun, 19 Oct 2025 23:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.344273
- Title: Uncertainty-Aware Post-Hoc Calibration: Mitigating Confidently Incorrect Predictions Beyond Calibration Metrics
- Title(参考訳): 不確かさを意識した院内校正 : 校正基準を超える確固たる不正確な予測を誤る
- Authors: Hassan Gharoun, Mohammad Sadegh Khorshidi, Kasra Ranjbarigderi, Fang Chen, Amir H. Gandomi,
- Abstract要約: 本稿では、校正品質と不確実性を考慮した意思決定を向上させるためのポストホック校正フレームワークを提案する。
校正基準,不確実性認識性能測定,実証的コンフォメーションカバレッジを用いて総合評価を行った。
実験により,提案手法はイソトニックおよび焦点損失ベースラインと比較して,信頼性の低い予測精度と競合予測誤差を実現することが示された。
- 参考スコア(独自算出の注目度): 6.9681910774977815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite extensive research on neural network calibration, existing methods typically apply global transformations that treat all predictions uniformly, overlooking the heterogeneous reliability of individual predictions. Furthermore, the relationship between improved calibration and effective uncertainty-aware decision-making remains largely unexplored. This paper presents a post-hoc calibration framework that leverages prediction reliability assessment to jointly enhance calibration quality and uncertainty-aware decision-making. The framework employs proximity-based conformal prediction to stratify calibration samples into putatively correct and putatively incorrect groups based on semantic similarity in feature space. A dual calibration strategy is then applied: standard isotonic regression calibrated confidence in putatively correct predictions, while underconfidence-regularized isotonic regression reduces confidence toward uniform distributions for putatively incorrect predictions, facilitating their identification for further investigations. A comprehensive evaluation is conducted using calibration metrics, uncertainty-aware performance measures, and empirical conformal coverage. Experiments on CIFAR-10 and CIFAR-100 with BiT and CoAtNet backbones show that the proposed method achieves lower confidently incorrect predictions, and competitive Expected Calibration Error compared with isotonic and focal-loss baselines. This work bridges calibration and uncertainty quantification through instance-level adaptivity, offering a practical post-hoc solution that requires no model retraining while improving both probability alignment and uncertainty-aware decision-making.
- Abstract(参考訳): ニューラルネットワークの校正に関する広範な研究にもかかわらず、既存の手法は一般的に、個々の予測の不均一な信頼性を見越して、すべての予測を均一に扱うグローバルトランスフォーメーションを適用している。
さらに, キャリブレーションの改善と有効不確実性を考慮した意思決定との関係については, 明らかにされていない。
本稿では,予測信頼性評価を活用してキャリブレーション品質と不確実性を考慮した意思決定を協調的に向上するポストホックキャリブレーションフレームワークを提案する。
このフレームワークは、近接に基づく共形予測を用いて、キャリブレーションサンプルを特徴空間における意味的類似性に基づいて、仮定的に正確かつ不正確なグループに階層化する。
標準等方性回帰は、不確実性正規化等方性回帰は、不確実性正規化等方性回帰は、不適切な予測に対する一様分布に対する信頼を減少させ、さらなる調査を容易にする。
校正基準,不確実性認識性能測定,実証的コンフォメーションカバレッジを用いて総合評価を行った。
CIFAR-10, CIFAR-100とBiT, CoAtNetのバックボーンを用いた実験により, 提案手法はアイソトニック, フォーカスロスベースラインと比較して, 信頼性の低い予測精度, および競合期待校正誤差が得られることを示した。
この研究は、インスタンスレベルの適応性を通じてキャリブレーションと不確実性定量化を橋渡しし、モデルの再トレーニングを必要とせず、確率アライメントと不確実性を考慮した意思決定の両方を改善する実用的なポストホックソリューションを提供する。
関連論文リスト
- CLUE: Neural Networks Calibration via Learning Uncertainty-Error alignment [7.702016079410588]
CLUE(Calibration via Learning Uncertainty-Error Alignment)は,学習中の予測不確かさを観測誤差と整合させる新しい手法である。
CLUEは,最先端のアプローチに対して,キャリブレーション品質と競争予測性能に優れることを示す。
論文 参考訳(メタデータ) (2025-05-28T19:23:47Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - A Confidence Interval for the $\ell_2$ Expected Calibration Error [35.88784957918326]
我々は信頼区間を$ell$ expected the Error (ECE) で開発する。
信頼性キャリブレーションの一般的な概念とキャリブレーションの両方を含む,トップ1からk$のキャリブレーションを考える。
ECEのデバイアスド推定器では、正規性を示すが、校正モデルとミスドモデルに対する収束率と分散は異なる。
論文 参考訳(メタデータ) (2024-08-16T20:00:08Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z) - CRUDE: Calibrating Regression Uncertainty Distributions Empirically [4.552831400384914]
機械学習における校正された不確実性推定は、自動運転車、医療、天気予報、気候予報など多くの分野において重要である。
本稿では,特定の不確実性分布を仮定しない回帰設定のキャリブレーション手法を提案する: 回帰不確実性分布のキャリブレーション(CRUDE)。
CRUDEは、最先端技術よりも、一貫してシャープで、校正され、正確な不確実性の推定値を示す。
論文 参考訳(メタデータ) (2020-05-26T03:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。