論文の概要: Consistency Conditions for Differentiable Surrogate Losses
- arxiv url: http://arxiv.org/abs/2505.13760v1
- Date: Mon, 19 May 2025 22:17:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.557748
- Title: Consistency Conditions for Differentiable Surrogate Losses
- Title(参考訳): 差別化可能なサロゲート損失の一貫性条件
- Authors: Drona Khurana, Anish Thilagar, Dhamma Kimpara, Rafael Frongillo,
- Abstract要約: Indirect elicitation (IE) is still equivalent to calibration for non-polyhedral surrogates。
まず、穏やかな条件下では、IEとキャリブレーションは、このクラスにおける一次元の損失と同値であることを示す。
これらの結果を多種多様な問題に適用し、一貫した差別化可能なサロゲートを設計・分析するためのIEと強力なIEのパワーを実証する。
- 参考スコア(独自算出の注目度): 0.9374652839580183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The statistical consistency of surrogate losses for discrete prediction tasks is often checked via the condition of calibration. However, directly verifying calibration can be arduous. Recent work shows that for polyhedral surrogates, a less arduous condition, indirect elicitation (IE), is still equivalent to calibration. We give the first results of this type for non-polyhedral surrogates, specifically the class of convex differentiable losses. We first prove that under mild conditions, IE and calibration are equivalent for one-dimensional losses in this class. We construct a counter-example that shows that this equivalence fails in higher dimensions. This motivates the introduction of strong IE, a strengthened form of IE that is equally easy to verify. We establish that strong IE implies calibration for differentiable surrogates and is both necessary and sufficient for strongly convex, differentiable surrogates. Finally, we apply these results to a range of problems to demonstrate the power of IE and strong IE for designing and analyzing consistent differentiable surrogates.
- Abstract(参考訳): 離散予測タスクにおける代理損失の統計的一貫性は、校正条件によってチェックされることが多い。
しかし、キャリブレーションを直接検証することは困難である。
近年の研究では、多面体サロゲートでは、過酷な条件である間接浸漬(IE)がキャリブレーションと等価であることが示されている。
非多面体サロゲート、特に凸微分損失のクラスについて、このタイプの最初の結果を与える。
まず、穏やかな条件下では、IEとキャリブレーションは、このクラスにおける一次元の損失と同値であることを示す。
我々は、この同値性が高次元で失敗することを示す反例を構築する。
これはIEの強化された形式である強力なIEの導入を動機付けており、検証も容易である。
強力なIEは、差別化可能なサロゲートのキャリブレーションを意図しており、強力な凸で差別化可能なサロゲートに必要かつ十分であることを示す。
最後に、これらの結果を様々な問題に適用し、一貫した差別化可能なサロゲートを設計・分析するためのIEと強力なIEのパワーを実証する。
関連論文リスト
- Orthogonal Causal Calibration [55.28164682911196]
我々は、因果校正作業を標準(非因果予測モデル)の校正作業に還元する一般的なアルゴリズムを開発する。
以上の結果から,既存のキャリブレーションアルゴリズムを因果的設定に応用できることが示唆された。
論文 参考訳(メタデータ) (2024-06-04T03:35:25Z) - Fairness under Covariate Shift: Improving Fairness-Accuracy tradeoff
with few Unlabeled Test Samples [21.144077993862652]
我々は、ラベル付きトレーニングセットとともに、ラベル付きテストサンプルの小さなセットのみが利用可能である教師なしのシステムで運用する。
我々は、損失定式化による最適化が、最先端のベースラインよりも優れていることを実験的に検証した。
提案手法は, それらの性能を著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-10-11T14:39:51Z) - Monotonicity and Double Descent in Uncertainty Estimation with Gaussian
Processes [52.92110730286403]
限界確率はクロスバリデーションの指標を思い起こさせるべきであり、どちらもより大きな入力次元で劣化すべきである、と一般的に信じられている。
我々は,ハイパーパラメータをチューニングすることにより,入力次元と単調に改善できることを証明した。
また、クロスバリデーションの指標は、二重降下の特徴である質的に異なる挙動を示すことも証明した。
論文 参考訳(メタデータ) (2022-10-14T08:09:33Z) - An Embedding Framework for the Design and Analysis of Consistent
Polyhedral Surrogates [17.596501992526477]
コンベックス・サロゲート損失関数の組込みによる設計を,分類,ランキング,構造化リンクなどの問題に対して検討する。
埋め込みは、一貫したリンク関数と一貫したリンク関数をもたらす。
私たちの結果は、いくつかの例を示すように、構成的です。
論文 参考訳(メタデータ) (2022-06-29T15:16:51Z) - Calibration and Consistency of Adversarial Surrogate Losses [46.04004505351902]
adrialversa robustnessは、アプリケーションにおける分類器のますます重要な特性である。
しかし、どの代理損失を使うべきで、いつ理論的保証から利益を得るのか?
本稿では, H-calibration と H-consistency of adversarial surrogate loss の詳細な分析を含む, この問題の広範な研究について述べる。
論文 参考訳(メタデータ) (2021-04-19T21:58:52Z) - Transferable Calibration with Lower Bias and Variance in Domain
Adaptation [139.4332115349543]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの学習マシンの転送を可能にする。
DAモデルの予測的不確実性を推定する方法は、安全クリティカルなシナリオにおける意思決定に不可欠である。
TransCalは既存のDAメソッドの校正に簡単に適用できる。
論文 参考訳(メタデータ) (2020-07-16T11:09:36Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z) - Calibration of Pre-trained Transformers [55.57083429195445]
本研究ではBERTとRoBERTaに着目し,自然言語推論,パラフレーズ検出,コモンセンス推論という3つのタスクのキャリブレーションを分析した。
その結果,(1) 事前学習モデルを用いてドメイン内キャリブレーションを行う場合, ベースラインと比較して, ドメイン外キャリブレーション誤差が3.5倍も低いこと,(2) ドメイン内キャリブレーション誤差をさらに低減するために温度スケーリングが有効であること,および, ラベルスムーシングを用いて実証的不確実性を意図的に増大させることにより, ドメイン内キャリブレーション後部キャリブレーションを支援すること,などが示されている。
論文 参考訳(メタデータ) (2020-03-17T18:58:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。