論文の概要: Revisiting Reweighted Risk for Calibration: AURC, Focal, and Inverse Focal Loss
- arxiv url: http://arxiv.org/abs/2505.23463v3
- Date: Fri, 03 Oct 2025 16:41:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 14:21:29.768607
- Title: Revisiting Reweighted Risk for Calibration: AURC, Focal, and Inverse Focal Loss
- Title(参考訳): 校正のリスク再考: AURC, Focal, Inverse Focal Loss
- Authors: Han Zhou, Sebastian G. Gruber, Teodora Popordanoska, Matthew B. Blaschko,
- Abstract要約: 深層学習で一般的に用いられる重み付きリスク関数のクラスを再検討し,キャリブレーション誤差と選択分類の原則的関連性を確立する。
キャリブレーション誤差の最小化は選択的分類パラダイムと密接に関連していることを示し、低信頼領域における選択的リスクの最適化が自然にキャリブレーションの改善につながることを示した。
- 参考スコア(独自算出の注目度): 24.141034387131267
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Several variants of reweighted risk functionals, such as focal loss, inverse focal loss, and the Area Under the Risk--Coverage Curve (AURC), have been proposed for improving model calibration, yet their theoretical connections to calibration errors remain unclear. In this paper, we revisit a broad class of weighted risk functions commonly used in deep learning and establish a principled connection between calibration error and selective classification. We show that minimizing calibration error is closely linked to the selective classification paradigm and demonstrate that optimizing selective risk in low-confidence region naturally leads to improved calibration. This loss shares a similar reweighting strategy with dual focal loss but offers greater flexibility through the choice of confidence score functions (CSFs). Our approach uses a bin-based cumulative distribution function (CDF) approximation, enabling efficient gradient-based optimization without requiring expensive sorting and achieving $O(nK)$ complexity. Empirical evaluations demonstrate that our method achieves competitive calibration performance across a range of datasets and model architectures.
- Abstract(参考訳): モデルキャリブレーションを改善するために, 焦点損失, 逆焦点損失, およびAURCの領域のような, 再重み付きリスク関数のいくつかの変種が提案されている。
本稿では,ディープラーニングで一般的に使用される重み付きリスク関数の幅広いクラスを再検討し,キャリブレーション誤差と選択分類の原理的関連性を確立する。
キャリブレーション誤差の最小化は選択的分類パラダイムと密接に関連していることを示し、低信頼領域における選択的リスクの最適化が自然にキャリブレーションの改善につながることを示した。
この損失は、二重焦点損失を伴う類似の再重み付け戦略を共有するが、信頼スコア関数 (CSF) の選択によってより柔軟性を提供する。
提案手法では,bin-based cumulative distribution function (CDF) 近似を用いて,高コストなソートを必要とせず,より効率的な勾配最適化を実現する。
実験により,本手法は様々なデータセットとモデルアーキテクチャの競合校正性能を実証した。
関連論文リスト
- SGIC: A Self-Guided Iterative Calibration Framework for RAG [45.17496149653415]
大規模言語モデル(LLM)は、頑健な文脈内推論を生かしている。
ツールとして不確実性スコアを用いる新しいフレームワークを提案する。
また、反復的な自己校正訓練セットを構築するための革新的なアプローチも導入する。
論文 参考訳(メタデータ) (2025-06-19T09:45:13Z) - Know What You Don't Know: Uncertainty Calibration of Process Reward Models [8.958124143194512]
最先端のPRMでさえ、キャリブレーションが不十分であり、しばしば成功確率を過大評価することができる。
我々は、PRM出力が真の成功確率によく適合するように、量子レグレッションによって行われるキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2025-06-11T02:39:26Z) - CLUE: Neural Networks Calibration via Learning Uncertainty-Error alignment [7.702016079410588]
CLUE(Calibration via Learning Uncertainty-Error Alignment)は,学習中の予測不確かさを観測誤差と整合させる新しい手法である。
CLUEは,最先端のアプローチに対して,キャリブレーション品質と競争予測性能に優れることを示す。
論文 参考訳(メタデータ) (2025-05-28T19:23:47Z) - Calibration Strategies for Robust Causal Estimation: Theoretical and Empirical Insights on Propensity Score-Based Estimators [0.6562256987706128]
推定と校正のためのデータの分割は、確率スコアに基づく推定器の性能に重大な影響を及ぼす。
提案手法は,確率スコア推定のためのキャリブレーション手法の最近の進歩を延長し,挑戦的な設定における確率スコアの堅牢性を向上させる。
論文 参考訳(メタデータ) (2025-03-21T16:41:10Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Prior Constraints-based Reward Model Training for Aligning Large Language Models [58.33118716810208]
本稿では,この問題を解決するために,事前制約に基づくリワードモデル(PCRM)のトレーニング手法を提案する。
PCRMは、前回の制約、特に各比較ペアの出力間の長さ比とコサイン類似性を、最適化の規模を調節しスコアマージンを制御するための報酬モデルトレーニングに組み入れている。
実験結果から,PCRMは報酬スコアのスケーリングを効果的に抑制することによりアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-01T07:49:11Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Provably Efficient Iterated CVaR Reinforcement Learning with Function
Approximation and Human Feedback [57.6775169085215]
リスクに敏感な強化学習は、期待される報酬とリスクのバランスをとるポリシーを最適化することを目的としている。
本稿では,線形および一般関数近似の下で,CVaR(Iterated Conditional Value-at-Risk)を目標とする新しいフレームワークを提案する。
本稿では,この反復CVaR RLに対するサンプル効率の高いアルゴリズムを提案し,厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2023-07-06T08:14:54Z) - Learning convex regularizers satisfying the variational source condition
for inverse problems [4.2917182054051]
本稿では,データ駆動型凸正則化学習のための対向凸正則化(ACR)を提案する。
我々は,学習中の変動源条件(SC)を利用して,学習した凸正規化器に対応する変動損失を最小限に抑える。
結果として得られる正則化器 (ACR-SC) は、ACRと同等に動作するが、ACRとは異なり、定量的収束率の推定が伴う。
論文 参考訳(メタデータ) (2021-10-24T20:05:59Z) - Stochastic Optimization of Areas Under Precision-Recall Curves with
Provable Convergence [66.83161885378192]
ROC(AUROC)と精度リコール曲線(AUPRC)の下の領域は、不均衡問題に対する分類性能を評価するための一般的な指標である。
本稿では,深層学習のためのAUPRCの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。