論文の概要: A Consistent and Differentiable Lp Canonical Calibration Error Estimator
- arxiv url: http://arxiv.org/abs/2210.07810v1
- Date: Thu, 13 Oct 2022 15:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 15:24:31.684767
- Title: A Consistent and Differentiable Lp Canonical Calibration Error Estimator
- Title(参考訳): 一貫性と微分可能なLp正準校正誤差推定器
- Authors: Teodora Popordanoska, Raphael Sayer, Matthew B. Blaschko
- Abstract要約: ディープニューラルネットワークは校正が不十分で、自信過剰な予測を出力する傾向がある。
ディリクレ核密度推定に基づく低バイアス・トレーニング可能な校正誤差推定器を提案する。
提案手法はカーネルの自然な選択であり,他の量の一貫した推定値を生成するのに利用できる。
- 参考スコア(独自算出の注目度): 21.67616079217758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Calibrated probabilistic classifiers are models whose predicted probabilities
can directly be interpreted as uncertainty estimates. It has been shown
recently that deep neural networks are poorly calibrated and tend to output
overconfident predictions. As a remedy, we propose a low-bias, trainable
calibration error estimator based on Dirichlet kernel density estimates, which
asymptotically converges to the true $L_p$ calibration error. This novel
estimator enables us to tackle the strongest notion of multiclass calibration,
called canonical (or distribution) calibration, while other common calibration
methods are tractable only for top-label and marginal calibration. The
computational complexity of our estimator is $\mathcal{O}(n^2)$, the
convergence rate is $\mathcal{O}(n^{-1/2})$, and it is unbiased up to
$\mathcal{O}(n^{-2})$, achieved by a geometric series debiasing scheme. In
practice, this means that the estimator can be applied to small subsets of
data, enabling efficient estimation and mini-batch updates. The proposed method
has a natural choice of kernel, and can be used to generate consistent
estimates of other quantities based on conditional expectation, such as the
sharpness of a probabilistic classifier. Empirical results validate the
correctness of our estimator, and demonstrate its utility in canonical
calibration error estimation and calibration error regularized risk
minimization.
- Abstract(参考訳): 校正確率分類器は、予測確率を直接不確実性推定と解釈できるモデルである。
近年,ディープニューラルネットワークのキャリブレーションが不十分で,自信過剰な予測を出力しがちであることが示された。
そこで,本研究では,ディリクレ核密度推定値に基づく低バイアスで訓練可能な校正誤差推定器を提案し,l_p$の正の校正誤差に漸近的に収束する。
この新しい推定器は、正準(もしくは分布)キャリブレーションと呼ばれる最強のマルチクラスキャリブレーションに取り組み、他の一般的なキャリブレーション法は、トップラベルと縁のキャリブレーションにのみ適用可能である。
我々の推定器の計算複雑性は$\mathcal{O}(n^2)$であり、収束率は$\mathcal{O}(n^{-1/2})$であり、幾何級数デバイアススキームによって達成される$\mathcal{O}(n^{-2})$まで非バイアスである。
実際にこれは、推定器を小さなサブセットのデータに適用し、効率的な推定とミニバッチ更新を可能にすることを意味する。
提案手法はカーネルの自然な選択であり,確率的分類器のシャープネスなどの条件付き期待値に基づいて,他の量の一貫した推定値を生成するために利用できる。
実験結果は推定器の正確性を検証し,標準校正誤差推定と校正誤差正規化リスク最小化に有用性を示す。
関連論文リスト
- Orthogonal Causal Calibration [55.28164682911196]
我々は、任意の損失$ell$に対して、任意の因果パラメータのキャリブレーション誤差$theta$の一般的な上限を証明した。
我々は、因果校正のための2つのサンプル分割アルゴリズムの収束解析に境界を用いる。
論文 参考訳(メタデータ) (2024-06-04T03:35:25Z) - Consistent and Asymptotically Unbiased Estimation of Proper Calibration
Errors [23.819464242327257]
本稿では,全ての適切な校正誤差と精錬項を一貫した推定を可能にする手法を提案する。
ニューラルネットワークにおける情報単調性を意味するf-分節と精製の関係を実証する。
本実験は,提案した推定器のクレーム特性を検証し,特に関心のキャリブレーション誤差によって,ポストホックキャリブレーション法の選択が決定されるべきであることを示唆した。
論文 参考訳(メタデータ) (2023-12-14T01:20:08Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Class-wise and reduced calibration methods [0.0]
キャリブレーションの削減により、元の問題をより単純なものに変換する方法を示す。
第2に,ニューラル崩壊という現象に基づいて,クラスワイドキャリブレーション手法を提案する。
この2つの手法を併用すると、予測とクラスごとの校正誤差を低減する強力なツールであるクラス単位での校正アルゴリズムが実現される。
論文 参考訳(メタデータ) (2022-10-07T17:13:17Z) - Parametric and Multivariate Uncertainty Calibration for Regression and
Object Detection [4.630093015127541]
一般的な検出モデルでは,観測誤差と比較して空間的不確かさが過大評価されている。
実験の結果, 簡便な等速回帰補正法は, 良好な校正不確実性を実現するのに十分であることがわかった。
対照的に、後続のプロセスに正規分布が必要な場合、GP-Normal再校正法が最良の結果をもたらす。
論文 参考訳(メタデータ) (2022-07-04T08:00:20Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Localized Calibration: Metrics and Recalibration [133.07044916594361]
完全大域キャリブレーションと完全個別化キャリブレーションのギャップにまたがる細粒度キャリブレーション指標を提案する。
次に,局所再校正法であるLoReを導入し,既存の校正法よりもLCEを改善する。
論文 参考訳(メタデータ) (2021-02-22T07:22:12Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。