論文の概要: A Convex Loss Function for Set Prediction with Optimal Trade-offs Between Size and Conditional Coverage
- arxiv url: http://arxiv.org/abs/2512.19142v1
- Date: Mon, 22 Dec 2025 08:41:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.673991
- Title: A Convex Loss Function for Set Prediction with Optimal Trade-offs Between Size and Conditional Coverage
- Title(参考訳): サイズと条件付き被覆の最適トレードオフを考慮した集合予測のための凸損失関数
- Authors: Francis Bach,
- Abstract要約: 我々は、集合予測が明確な不確実性推定を提供する教師付き学習問題を考察する。
実数値関数のレベルセットとして得られる非減少部分値関数に対する凸損失関数を提案する。
最適化された条件付き被覆を持つ集合を自然に取得する方法を示す。
- 参考スコア(独自算出の注目度): 0.554780083433538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider supervised learning problems in which set predictions provide explicit uncertainty estimates. Using Choquet integrals (a.k.a. Lov{á}sz extensions), we propose a convex loss function for nondecreasing subset-valued functions obtained as level sets of a real-valued function. This loss function allows optimal trade-offs between conditional probabilistic coverage and the ''size'' of the set, measured by a non-decreasing submodular function. We also propose several extensions that mimic loss functions and criteria for binary classification with asymmetric losses, and show how to naturally obtain sets with optimized conditional coverage. We derive efficient optimization algorithms, either based on stochastic gradient descent or reweighted least-squares formulations, and illustrate our findings with a series of experiments on synthetic datasets for classification and regression tasks, showing improvements over approaches that aim for marginal coverage.
- Abstract(参考訳): 我々は、集合予測が明確な不確実性推定を提供する教師付き学習問題を考察する。
Choquet積分(すなわち Lov{á}sz 拡張)を用いて、実数値関数のレベル集合として得られる非退化部分集合値関数に対する凸損失関数を提案する。
この損失関数は、条件確率的カバレッジと、非減少部分モジュラ函数によって測定された集合の'サイズ'との間の最適なトレードオフを可能にする。
また、損失関数と非対称な損失を持つ二項分類の基準を模倣するいくつかの拡張を提案し、最適化された条件付き被覆を持つ集合を自然に取得する方法を示す。
我々は,確率勾配降下あるいは最小二乗法式に基づく効率的な最適化アルゴリズムを導出し,分類および回帰タスクのための合成データセットに関する一連の実験を行い,限界被覆を目的としたアプローチに対する改善を示す。
関連論文リスト
- Convergence of a class of gradient-free optimisation schemes when the objective function is noisy, irregular, or both [4.258175645355975]
本研究では,非滑らかで雑音の多い目的関数を最小化するために設計されたアルゴリズムのクラスについて検討する。
収束結果は、目的関数の正則性に関する非常に弱い仮定の下で得られる。
機械学習の難解な分類例を通して,これらのアルゴリズムと収束結果との関連について述べる。
論文 参考訳(メタデータ) (2025-12-02T21:05:41Z) - Split Conformal Prediction in the Function Space with Neural Operators [7.619100818009453]
等角予測は有限次元空間において有限サンプル保証を与える。
直接関数値出力に拡張しない。
この研究は、2段階法に従って関数空間への共形予測を分割する。
論文 参考訳(メタデータ) (2025-09-04T19:12:04Z) - Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Off-policy estimation with adaptively collected data: the power of online learning [20.023469636707635]
適応的に収集したデータを用いて, 処理効果の線形関数を推定する。
本稿では,オンライン学習を通じて治療効果の一連の推定を生成できる一般還元方式を提案する。
論文 参考訳(メタデータ) (2024-11-19T10:18:27Z) - Semiparametric conformal prediction [79.6147286161434]
ベクトル値の非整合性スコアの結合相関構造を考慮した共形予測セットを構築する。
スコアの累積分布関数(CDF)を柔軟に推定する。
提案手法は,現実の回帰問題に対して,所望のカバレッジと競争効率をもたらす。
論文 参考訳(メタデータ) (2024-11-04T14:29:02Z) - Nuisance Function Tuning and Sample Splitting for Optimal Doubly Robust Estimation [5.018363990542611]
二重頑健な非パラメトリック関数に対する収束率の最適値を求めるために、ニュアンス関数を推定する方法の問題点を考察する。
プラグインおよび一階偏り補正された推定器は、ニュアンス関数のすべてのH"古い滑らか度クラスに対して収束の最小値が得られることを示す。
論文 参考訳(メタデータ) (2022-12-30T18:17:06Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Optimal Rates for Random Order Online Optimization [60.011653053877126]
敵が損失関数を選択できるカテットガルバー2020onlineについて検討するが、一様にランダムな順序で提示される。
2020onlineアルゴリズムが最適境界を達成し,安定性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T09:48:46Z) - Risk Guarantees for End-to-End Prediction and Optimization Processes [0.0]
予測性能が最適化性能をどのように支配するかを明確に記述できる条件を検討します。
我々は、二乗損失で測定された予測性能と対称損失関数のクラスとその後の最適化性能との正確な理論的関係を導出する。
論文 参考訳(メタデータ) (2020-12-30T05:20:26Z) - Mixability of Integral Losses: a Key to Efficient Online Aggregation of Functional and Probabilistic Forecasts [72.32459441619388]
基本混合(および指数的に凹)損失関数を適用して機能的予測を比較し、これらの適応が混合可能であることを証明する(exp-concave)。
主な結果の応用として、確率予測に使用される様々な損失関数が混合可能であることを示す(exp-concave)。
論文 参考訳(メタデータ) (2019-12-15T14:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。