論文の概要: Nonparametric Distribution Regression Re-calibration
- arxiv url: http://arxiv.org/abs/2602.13362v1
- Date: Fri, 13 Feb 2026 11:48:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.945061
- Title: Nonparametric Distribution Regression Re-calibration
- Title(参考訳): 非パラメトリック分布回帰再校正
- Authors: Ádám Jung, Domokos M. Kelen, András A. Benczúr,
- Abstract要約: 全体的な予測誤差の最小化は、キャリブレーションよりも情報を優先することをモデルに推奨する。
安全クリティカルな設定では、信頼に値する不確実性推定は狭い間隔よりも価値があることが多い。
条件付きカーネル平均埋め込みに基づく新しい非パラメトリック再校正アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.0204520109309847
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A key challenge in probabilistic regression is ensuring that predictive distributions accurately reflect true empirical uncertainty. Minimizing overall prediction error often encourages models to prioritize informativeness over calibration, producing narrow but overconfident predictions. However, in safety-critical settings, trustworthy uncertainty estimates are often more valuable than narrow intervals. Realizing the problem, several recent works have focused on post-hoc corrections; however, existing methods either rely on weak notions of calibration (such as PIT uniformity) or impose restrictive parametric assumptions on the nature of the error. To address these limitations, we propose a novel nonparametric re-calibration algorithm based on conditional kernel mean embeddings, capable of correcting calibration error without restrictive modeling assumptions. For efficient inference with real-valued targets, we introduce a novel characteristic kernel over distributions that can be evaluated in $\mathcal{O}(n \log n)$ time for empirical distributions of size $n$. We demonstrate that our method consistently outperforms prior re-calibration approaches across a diverse set of regression benchmarks and model classes.
- Abstract(参考訳): 確率的回帰の重要な課題は、予測分布が真の経験的不確実性を正確に反映することを保証することである。
全体的な予測誤差の最小化は、しばしばモデルにキャリブレーションよりも情報性を優先させ、狭いが過信な予測を生み出す。
しかし、安全クリティカルな設定では、信頼に値する不確実性推定は狭い間隔よりも価値があることが多い。
この問題を認識した最近のいくつかの研究は、ポストホック補正に焦点を当てているが、既存の手法は校正の弱い概念(PITの均一性など)に依存しているか、あるいは誤差の性質に制限的なパラメトリック仮定を課している。
これらの制約に対処するために,条件付きカーネル平均埋め込みに基づく新しい非パラメトリック再校正アルゴリズムを提案する。
実数値のターゲットを持つ効率的な推論のために、$\mathcal{O}(n \log n)$ time of size $n$で評価できる分布上の新しい特性カーネルを導入する。
提案手法は,様々な回帰ベンチマークやモデルクラスにおいて,事前再校正手法よりも一貫して優れていることを示す。
関連論文リスト
- A Novel Framework for Uncertainty Quantification via Proper Scores for Classification and Beyond [1.5229257192293202]
本稿では,機械学習における不確実性定量化のための新しい枠組みを提案する。
具体的には、カーネルベースの適切なスコアであるカーネルスコアを用いて、サンプルベースの生成モデルを評価する。
キャリブレーション・シャープネスの分解を分類を超えて一般化し、適切なキャリブレーション誤差の定義を動機付ける。
論文 参考訳(メタデータ) (2025-08-25T13:11:03Z) - Rethinking Early Stopping: Refine, Then Calibrate [49.966899634962374]
キャリブレーション・リファインメント分解の新規な変分定式化について述べる。
我々は,校正誤差と精錬誤差が訓練中に同時に最小化されないという理論的,実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-01-31T15:03:54Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Multiclass Alignment of Confidence and Certainty for Network Calibration [10.15706847741555]
最近の研究では、ディープニューラルネットワーク(DNN)が過信的な予測を行う傾向があることが示されている。
予測平均信頼度と予測確実性(MACC)の多クラスアライメントとして知られる簡易なプラグアンドプレイ補助損失を特徴とする列車時キャリブレーション法を提案する。
本手法は,領域内および領域外両方のキャリブレーション性能を実現する。
論文 参考訳(メタデータ) (2023-09-06T00:56:24Z) - Distribution-Free Model-Agnostic Regression Calibration via
Nonparametric Methods [9.662269016653296]
予測モデルの量子化を特徴付けるための個別キャリブレーションの目的について考察する。
既存の方法はほとんどなく、個々のキャリブレーションに関して統計的な保証が欠如している。
基礎となる予測モデルに依存しない単純な非パラメトリックキャリブレーション法を提案する。
論文 参考訳(メタデータ) (2023-05-20T21:31:51Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Calibrated Reliable Regression using Maximum Mean Discrepancy [45.45024203912822]
現代のディープニューラルネットワークは依然として信頼できない予測の不確実性を生んでいる。
本稿では、回帰タスクにおいて、よく校正された予測を得ることを懸念する。
非自明な実データセットに対する実験により,本手法は高い校正と鋭い予測間隔を生成できることが示された。
論文 参考訳(メタデータ) (2020-06-18T03:38:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。