論文の概要: Enforcing Calibration in Multi-Output Probabilistic Regression with Pre-rank Regularization
- arxiv url: http://arxiv.org/abs/2510.21273v2
- Date: Mon, 27 Oct 2025 09:17:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 13:14:10.644585
- Title: Enforcing Calibration in Multi-Output Probabilistic Regression with Pre-rank Regularization
- Title(参考訳): プリランク正規化による多出力確率回帰の校正
- Authors: Naomi Desobry, Elnura Zhalieva, Souhaib Ben Taieb,
- Abstract要約: 任意のプリランク関数のトレーニング中に多変量キャリブレーションを強制する一般的な正規化フレームワークを提案する。
本手法は,予測精度を犠牲にすることなく,プリランク関数のキャリブレーションを大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 4.065502917666599
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic models must be well calibrated to support reliable decision-making. While calibration in single-output regression is well studied, defining and achieving multivariate calibration in multi-output regression remains considerably more challenging. The existing literature on multivariate calibration primarily focuses on diagnostic tools based on pre-rank functions, which are projections that reduce multivariate prediction-observation pairs to univariate summaries to detect specific types of miscalibration. In this work, we go beyond diagnostics and introduce a general regularization framework to enforce multivariate calibration during training for arbitrary pre-rank functions. This framework encompasses existing approaches such as highest density region calibration and copula calibration. Our method enforces calibration by penalizing deviations of the projected probability integral transforms (PITs) from the uniform distribution, and can be added as a regularization term to the loss function of any probabilistic predictor. Specifically, we propose a regularization loss that jointly enforces both marginal and multivariate pre-rank calibration. We also introduce a new PCA-based pre-rank that captures calibration along directions of maximal variance in the predictive distribution, while also enabling dimensionality reduction. Across 18 real-world multi-output regression datasets, we show that unregularized models are consistently miscalibrated, and that our methods significantly improve calibration across all pre-rank functions without sacrificing predictive accuracy.
- Abstract(参考訳): 確率モデルは、信頼できる意思決定をサポートするために適切に調整されなければならない。
単出力回帰におけるキャリブレーションはよく研究されているが、多出力回帰における多変量キャリブレーションの定義と達成は依然としてかなり難しい。
多変量キャリブレーションに関する既存の文献は、主にプリランク関数に基づく診断ツールに焦点を当てており、これは多変量予測と観測のペアを減らし、特定の種類の誤校正を検出するための一変量要約に還元するプロジェクションである。
本研究は, 診断を超越して, 任意のプリランク関数のトレーニング中に多変量校正を行うための一般化正規化フレームワークを導入する。
このフレームワークは、高密度領域校正やコプラ校正といった既存のアプローチを含んでいる。
確率積分変換(PIT)を一様分布から逸脱することでキャリブレーションを行ない,確率予測器の損失関数に正規化項として加えることができる。
具体的には,境界校正と多変量プリランク校正を併用した正規化損失を提案する。
また,予測分布の最大分散方向に沿ってキャリブレーションをキャプチャするPCAベースのプリランクを導入し,次元の低減を実現した。
実世界のマルチアウトプット回帰データセット18件にわたって、非正規化モデルは一貫して誤校正され、予測精度を犠牲にすることなく、プリランク関数全体の校正を著しく改善することを示した。
関連論文リスト
- Multivariate Latent Recalibration for Conditional Normalizing Flows [2.3020018305241337]
ラテント校正は、ラテントキャリブレーション上の有限サンプル境界を持つラテント空間の変換を学ぶ。
LRは再校正モデルの潜時校正誤差と負の対数類似度を一貫して改善する。
論文 参考訳(メタデータ) (2025-05-22T13:08:20Z) - Rethinking Early Stopping: Refine, Then Calibrate [49.966899634962374]
キャリブレーション・リファインメント分解の新規な変分定式化について述べる。
我々は,校正誤差と精錬誤差が訓練中に同時に最小化されないという理論的,実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-01-31T15:03:54Z) - Parametric $ρ$-Norm Scaling Calibration [8.583311125489942]
出力の不確実性は、確率的特性がモデル出力の客観的特性を反映しているかどうかを示す。
本稿では,処理後パラメトリックキャリブレーション法である$rho$-Norm Scalingを導入し,キャリブレータ表現を拡張し,過度な振幅による過信を緩和する。
論文 参考訳(メタデータ) (2024-12-19T10:42:11Z) - Reassessing How to Compare and Improve the Calibration of Machine Learning Models [7.183341902583164]
結果の予測確率がモデル予測に基づいてその結果の観測周波数と一致した場合、機械学習モデルを校正する。
キャリブレーションと予測の指標が追加の一般化の指標を伴わない限り、最先端のように見えるような簡単な再校正手法が存在することを示す。
論文 参考訳(メタデータ) (2024-06-06T13:33:45Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Parametric and Multivariate Uncertainty Calibration for Regression and
Object Detection [4.630093015127541]
一般的な検出モデルでは,観測誤差と比較して空間的不確かさが過大評価されている。
実験の結果, 簡便な等速回帰補正法は, 良好な校正不確実性を実現するのに十分であることがわかった。
対照的に、後続のプロセスに正規分布が必要な場合、GP-Normal再校正法が最良の結果をもたらす。
論文 参考訳(メタデータ) (2022-07-04T08:00:20Z) - Localized Calibration: Metrics and Recalibration [133.07044916594361]
完全大域キャリブレーションと完全個別化キャリブレーションのギャップにまたがる細粒度キャリブレーション指標を提案する。
次に,局所再校正法であるLoReを導入し,既存の校正法よりもLCEを改善する。
論文 参考訳(メタデータ) (2021-02-22T07:22:12Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。