論文の概要: Revisiting Reweighted Risk for Calibration: AURC, Focal Loss, and Inverse Focal Loss
- arxiv url: http://arxiv.org/abs/2505.23463v2
- Date: Tue, 10 Jun 2025 15:31:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 19:51:30.204246
- Title: Revisiting Reweighted Risk for Calibration: AURC, Focal Loss, and Inverse Focal Loss
- Title(参考訳): 校正のリスク再考: AURC, Focal Loss, Inverse Focal Loss
- Authors: Han Zhou, Sebastian G. Gruber, Teodora Popordanoska, Matthew B. Blaschko,
- Abstract要約: 本稿では,ディープラーニングで一般的に使用される重み付きリスク関数の幅広いクラスを再検討する。
我々はこれらの重み付けスキームと校正誤差の原理的関係を確立する。
AURCの正規化変種を最適化することは自然にキャリブレーションの改善につながることを示す。
- 参考スコア(独自算出の注目度): 17.970895970580823
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Several variants of reweighted risk functionals, such as focal losss, inverse focal loss, and the Area Under the Risk-Coverage Curve (AURC), have been proposed in the literature and claims have been made in relation to their calibration properties. However, focal loss and inverse focal loss propose vastly different weighting schemes. In this paper, we revisit a broad class of weighted risk functions commonly used in deep learning and establish a principled connection between these reweighting schemes and calibration errors. We show that minimizing calibration error is closely linked to the selective classification paradigm and demonstrate that optimizing a regularized variant of the AURC naturally leads to improved calibration. This regularized AURC shares a similar reweighting strategy with inverse focal loss, lending support to the idea that focal loss is less principled when calibration is a desired outcome. Direct AURC optimization offers greater flexibility through the choice of confidence score functions (CSFs). To enable gradient-based optimization, we introduce a differentiable formulation of the regularized AURC using the SoftRank technique. Empirical evaluations demonstrate that our AURC-based loss achieves competitive class-wise calibration performance across a range of datasets and model architectures.
- Abstract(参考訳): 分散損失、逆焦点損失、AURC (Area Under the Risk-Coverage Curve) などの再重み付けされたリスク関数のいくつかの変種が文献で提案され、それらのキャリブレーション特性に関する主張がなされている。
しかし、焦点損失と逆焦点損失は、全く異なる重み付けスキームを提案する。
本稿では,深層学習で一般的に使用される多種多様な重み付きリスク関数を再検討し,これらの重み付けスキームと校正誤差の原理的関連性を確立する。
キャリブレーション誤差の最小化は選択的分類パラダイムと密接に関連していることを示し、AURCの正規化変種を最適化することが自然にキャリブレーションの改善につながることを示した。
この正規化されたAURCは、逆焦点損失を伴う同様の再重み付け戦略を共有し、校正が望ましい結果であるときに焦点損失が原則的でないという考え方を支援する。
直接AURC最適化は、信頼スコア関数(CSF)の選択による柔軟性の向上を提供する。
勾配に基づく最適化を実現するために,SoftRank 法を用いて正規化 AURC の微分可能な定式化を導入する。
実験により、AURCに基づく損失は、様々なデータセットやモデルアーキテクチャで競合するクラスワイドキャリブレーション性能を実現することを示す。
関連論文リスト
- CLUE: Neural Networks Calibration via Learning Uncertainty-Error alignment [7.702016079410588]
CLUE(Calibration via Learning Uncertainty-Error Alignment)は,学習中の予測不確かさを観測誤差と整合させる新しい手法である。
CLUEは,最先端のアプローチに対して,キャリブレーション品質と競争予測性能に優れることを示す。
論文 参考訳(メタデータ) (2025-05-28T19:23:47Z) - Calibration Strategies for Robust Causal Estimation: Theoretical and Empirical Insights on Propensity Score-Based Estimators [0.6562256987706128]
推定と校正のためのデータの分割は、確率スコアに基づく推定器の性能に重大な影響を及ぼす。
提案手法は,確率スコア推定のためのキャリブレーション手法の最近の進歩を延長し,挑戦的な設定における確率スコアの堅牢性を向上させる。
論文 参考訳(メタデータ) (2025-03-21T16:41:10Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Prior Constraints-based Reward Model Training for Aligning Large Language Models [58.33118716810208]
本稿では,この問題を解決するために,事前制約に基づくリワードモデル(PCRM)のトレーニング手法を提案する。
PCRMは、前回の制約、特に各比較ペアの出力間の長さ比とコサイン類似性を、最適化の規模を調節しスコアマージンを制御するための報酬モデルトレーニングに組み入れている。
実験結果から,PCRMは報酬スコアのスケーリングを効果的に抑制することによりアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-01T07:49:11Z) - Stochastic Optimization of Areas Under Precision-Recall Curves with
Provable Convergence [66.83161885378192]
ROC(AUROC)と精度リコール曲線(AUPRC)の下の領域は、不均衡問題に対する分類性能を評価するための一般的な指標である。
本稿では,深層学習のためのAUPRCの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。