論文の概要: h-calibration: Rethinking Classifier Recalibration with Probabilistic Error-Bounded Objective
- arxiv url: http://arxiv.org/abs/2506.17968v1
- Date: Sun, 22 Jun 2025 09:56:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.676998
- Title: h-calibration: Rethinking Classifier Recalibration with Probabilistic Error-Bounded Objective
- Title(参考訳): h-calibration:確率的エラー境界オブジェクトによる分類器の校正再考
- Authors: Wenjian Huang, Guiping Cao, Jiahao Xia, Jingkun Chen, Hao Wang, Jianguo Zhang,
- Abstract要約: ディープニューラルネットワークは、多くの学習タスクで顕著なパフォーマンスを示してきたが、しばしば誤校正に悩まされている。
このことは、特にポストホック再校正法を通じて、誤校正の軽減に関する最近の多くの研究にインスピレーションを与えている。
本稿では,h-calibrationと呼ばれるキャリブレーションのための確率論的学習フレームワークを提案する。
提案手法は,10個の制限を克服するだけでなく,従来の手法よりも優れた性能を実現する。
- 参考スコア(独自算出の注目度): 12.903217487071172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have demonstrated remarkable performance across numerous learning tasks but often suffer from miscalibration, resulting in unreliable probability outputs. This has inspired many recent works on mitigating miscalibration, particularly through post-hoc recalibration methods that aim to obtain calibrated probabilities without sacrificing the classification performance of pre-trained models. In this study, we summarize and categorize previous works into three general strategies: intuitively designed methods, binning-based methods, and methods based on formulations of ideal calibration. Through theoretical and practical analysis, we highlight ten common limitations in previous approaches. To address these limitations, we propose a probabilistic learning framework for calibration called h-calibration, which theoretically constructs an equivalent learning formulation for canonical calibration with boundedness. On this basis, we design a simple yet effective post-hoc calibration algorithm. Our method not only overcomes the ten identified limitations but also achieves markedly better performance than traditional methods, as validated by extensive experiments. We further analyze, both theoretically and experimentally, the relationship and advantages of our learning objective compared to traditional proper scoring rule. In summary, our probabilistic framework derives an approximately equivalent differentiable objective for learning error-bounded calibrated probabilities, elucidating the correspondence and convergence properties of computational statistics with respect to theoretical bounds in canonical calibration. The theoretical effectiveness is verified on standard post-hoc calibration benchmarks by achieving state-of-the-art performance. This research offers valuable reference for learning reliable likelihood in related fields.
- Abstract(参考訳): ディープニューラルネットワークは、多くの学習タスクにおいて顕著な性能を示してきたが、しばしば誤校正に悩まされ、信頼性の低い確率出力が生じる。
これは、特に、事前訓練されたモデルの分類性能を犠牲にすることなく、校正された確率を得るためのポストホック校正手法によって、最近の多くの誤校正の緩和にインスピレーションを与えている。
本研究では,先行研究を直感的に設計した手法,ビンニング法,理想的なキャリブレーションの定式化に基づく手法の3つの一般的な戦略にまとめ,分類する。
理論的および実践的な分析を通じて、従来のアプローチにおける10の一般的な制限を強調した。
これらの制約に対処するため,h-calibrationと呼ばれるキャリブレーションのための確率論的学習フレームワークを提案し,理論的には有界な正準キャリブレーションのための等価な学習形式を構築している。
そこで本研究では,単純だが効果的なポストホックキャリブレーションアルゴリズムを設計する。
提案手法は,10個の制限を克服するだけでなく,従来の手法よりも優れた性能を達成している。
さらに、従来の適切なスコアリングルールと比較して、理論的にも実験的にも、学習目標の関係と利点について分析する。
要約すると、我々の確率的フレームワークは、標準校正における理論的境界に関する計算統計の対応性と収束性を解明し、誤差有界校正確率を学習するためのほぼ同値な微分可能な目的を導出する。
理論的有効性は、最先端性能を達成し、標準的なポストホックキャリブレーションベンチマークで検証される。
この研究は、関連する分野における信頼できる可能性の学習に貴重な参考を提供する。
関連論文リスト
- Uniform convergence of the smooth calibration error and its relationship with functional gradient [10.906645958268939]
この研究は滑らかな校正誤差(CE)に焦点を当て、一様収束境界を提供する。
我々は3つの代表的なアルゴリズムを解析する: 勾配の押し上げ木、カーネルの押し上げ、2層ニューラルネットワーク。
この結果は,信頼性のある確率モデルを設計するための新たな理論的洞察と実践的ガイダンスを提供する。
論文 参考訳(メタデータ) (2025-05-26T01:23:56Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Distribution-Free Model-Agnostic Regression Calibration via
Nonparametric Methods [9.662269016653296]
予測モデルの量子化を特徴付けるための個別キャリブレーションの目的について考察する。
既存の方法はほとんどなく、個々のキャリブレーションに関して統計的な保証が欠如している。
基礎となる予測モデルに依存しない単純な非パラメトリックキャリブレーション法を提案する。
論文 参考訳(メタデータ) (2023-05-20T21:31:51Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Modular Conformal Calibration [80.33410096908872]
回帰における再校正のためのアルゴリズムを多種多様なクラスで導入する。
このフレームワークは、任意の回帰モデルをキャリブレーションされた確率モデルに変換することを可能にする。
我々は17の回帰データセットに対するMCCの実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-23T03:25:23Z) - Predictive machine learning for prescriptive applications: a coupled
training-validating approach [77.34726150561087]
規範的応用のための予測機械学習モデルをトレーニングするための新しい手法を提案する。
このアプローチは、標準的なトレーニング検証テストスキームの検証ステップを微調整することに基づいている。
合成データを用いたいくつかの実験は、決定論的モデルと実モデルの両方において処方料コストを削減できる有望な結果を示した。
論文 参考訳(メタデータ) (2021-10-22T15:03:20Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。