論文の概要: Instance-Wise Monotonic Calibration by Constrained Transformation
- arxiv url: http://arxiv.org/abs/2507.06516v1
- Date: Wed, 09 Jul 2025 03:32:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.454056
- Title: Instance-Wise Monotonic Calibration by Constrained Transformation
- Title(参考訳): 制約付き変換によるインスタンスワイズモノトニック校正
- Authors: Yunrui Zhang, Gustavo Batista, Salil S. Kanhere,
- Abstract要約: キャリブレーションの一般的なアプローチは、未確認のバリデーションデータにポストホックキャリブレーションマップを適合させることである。
既存のポストホックキャリブレーション法では、モノトニック性は保証されていない。
本稿では,新しいモノトニックポストホックキャリブレーション法を提案する。
- 参考スコア(独自算出の注目度): 7.331937231993605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks often produce miscalibrated probability estimates, leading to overconfident predictions. A common approach for calibration is fitting a post-hoc calibration map on unseen validation data that transforms predicted probabilities. A key desirable property of the calibration map is instance-wise monotonicity (i.e., preserving the ranking of probability outputs). However, most existing post-hoc calibration methods do not guarantee monotonicity. Previous monotonic approaches either use an under-parameterized calibration map with limited expressive ability or rely on black-box neural networks, which lack interpretability and robustness. In this paper, we propose a family of novel monotonic post-hoc calibration methods, which employs a constrained calibration map parameterized linearly with respect to the number of classes. Our proposed approach ensures expressiveness, robustness, and interpretability while preserving the relative ordering of the probability output by formulating the proposed calibration map as a constrained optimization problem. Our proposed methods achieve state-of-the-art performance across datasets with different deep neural network models, outperforming existing calibration methods while being data and computation-efficient. Our code is available at https://github.com/YunruiZhang/Calibration-by-Constrained-Transformation
- Abstract(参考訳): ディープニューラルネットワークは、しばしば誤校正された確率推定を生成し、過信の予測につながる。
キャリブレーションの一般的なアプローチは、予測確率を変換する未確認のバリデーションデータにポストホックキャリブレーションマップを適合させることである。
キャリブレーション写像の鍵となる望ましい性質は、インスタンスワイド単調性(すなわち、確率出力のランクを保つこと)である。
しかし、既存のほとんどのポストホックキャリブレーション法は単調性を保証するものではない。
従来のモノトニックアプローチでは、表現能力に制限のあるパラメータ下キャリブレーションマップを使用するか、解釈性や堅牢性に欠けるブラックボックスニューラルネットワークに依存している。
本稿では,クラス数に対して線形にパラメータ化された制約付きキャリブレーションマップを用いる,新しいモノトニックポストホックキャリブレーション手法のファミリーを提案する。
提案手法は, 制約付き最適化問題としてキャリブレーションマップを定式化することにより, 確率出力の相対順序を保ちながら, 表現性, 頑健性, 解釈可能性を保証する。
提案手法は、異なるディープニューラルネットワークモデルを持つデータセット間での最先端性能を実現し、データと計算効率を両立させながら、既存のキャリブレーション手法より優れている。
私たちのコードはhttps://github.com/YunruiZhang/Calibration-by-Constrained-Transformationで利用可能です。
関連論文リスト
- Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Faster Recalibration of an Online Predictor via Approachability [12.234317585724868]
本稿では,オンラインの予測モデルを校正せず,その予測を校正した予測に変換する手法を提案する。
提案アルゴリズムは,従来の手法であるarXiv:1607.03594よりも高速にキャリブレーションと精度を達成し,オンライン設定におけるキャリブレーション誤差と精度との柔軟なトレードオフを提供する最初のアルゴリズムである。
論文 参考訳(メタデータ) (2023-10-25T20:59:48Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - A Consistent and Differentiable Lp Canonical Calibration Error Estimator [21.67616079217758]
ディープニューラルネットワークは校正が不十分で、自信過剰な予測を出力する傾向がある。
ディリクレ核密度推定に基づく低バイアス・トレーニング可能な校正誤差推定器を提案する。
提案手法はカーネルの自然な選択であり,他の量の一貫した推定値を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-10-13T15:11:11Z) - Parametric and Multivariate Uncertainty Calibration for Regression and
Object Detection [4.630093015127541]
一般的な検出モデルでは,観測誤差と比較して空間的不確かさが過大評価されている。
実験の結果, 簡便な等速回帰補正法は, 良好な校正不確実性を実現するのに十分であることがわかった。
対照的に、後続のプロセスに正規分布が必要な場合、GP-Normal再校正法が最良の結果をもたらす。
論文 参考訳(メタデータ) (2022-07-04T08:00:20Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Calibrated and Sharp Uncertainties in Deep Learning via Density Estimation [10.209143402485406]
本稿では, キャリブレーションが重要であり, 維持が容易であることを論じる。
校正されたモデルを生成する再校正に基づく簡単なトレーニング手順を導入し、全体的な性能を犠牲にしない。
論文 参考訳(メタデータ) (2021-12-14T06:19:05Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。