論文の概要: Surrogate Regret Bounds for Polyhedral Losses
- arxiv url: http://arxiv.org/abs/2110.14031v1
- Date: Tue, 26 Oct 2021 21:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:08:14.674759
- Title: Surrogate Regret Bounds for Polyhedral Losses
- Title(参考訳): 多面体損失に対するサロゲートレグレト境界
- Authors: Rafael Frongillo, Bo Waggoner
- Abstract要約: サロゲート後悔境界は、サロゲートリスク最小化の一般化率を証明するツールである。
十分に非多面体サロゲートの場合、後悔境界は正方根であり、高速なサロゲート一般化速度はターゲットのスローレートに関係していることを示す。
- 参考スコア(独自算出の注目度): 14.302810713095365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surrogate risk minimization is an ubiquitous paradigm in supervised machine
learning, wherein a target problem is solved by minimizing a surrogate loss on
a dataset. Surrogate regret bounds, also called excess risk bounds, are a
common tool to prove generalization rates for surrogate risk minimization.
While surrogate regret bounds have been developed for certain classes of loss
functions, such as proper losses, general results are relatively sparse. We
provide two general results. The first gives a linear surrogate regret bound
for any polyhedral (piecewise-linear and convex) surrogate, meaning that
surrogate generalization rates translate directly to target rates. The second
shows that for sufficiently non-polyhedral surrogates, the regret bound is a
square root, meaning fast surrogate generalization rates translate to slow
rates for the target. Together, these results suggest polyhedral surrogates are
optimal in many cases.
- Abstract(参考訳): サロゲートリスク最小化は教師付き機械学習においてユビキタスなパラダイムであり、データセット上のサロゲート損失を最小化することでターゲット問題は解決される。
surrogate regret bounds(過度リスク境界とも呼ばれる)は、過度リスク最小化のための一般化率を証明する一般的なツールである。
損失関数の特定のクラス(例えば適切な損失など)に対して、サロゲート後悔境界が開発されたが、一般的な結果は比較的希薄である。
結果は2つある。
第一に、任意の多面体(一方向線型および凸体)のサロゲートに対して線形なサロゲート後悔を与えるので、サロゲート一般化率は直接ターゲットレートに変換される。
第二に、十分に非多面体サロゲートの場合、後悔の束縛は正方根であり、高速なサロゲート一般化速度はターゲットのスローレートに変換される。
これらの結果は多面体置換基が最適であることを示す。
関連論文リスト
- Proper losses regret at least 1/2-order [1.7986307635828565]
我々は、損失の厳密な正当性は、非空きサロゲート的後悔境界を確立するのに十分であることを示す。
また、p-ノルムにおける収束の順序は、厳密な適切な損失の幅広いクラスに対する1/2$のサロゲート後悔の順序よりは高速ではないことを示す。
論文 参考訳(メタデータ) (2024-07-15T03:46:15Z) - A Universal Growth Rate for Learning with Smooth Surrogate Losses [30.389055604165222]
2進分類におけるスムーズなマージンベースサロゲート損失に対して,0付近の平方根成長速度を証明した。
我々は、この分析を、一連の新しい結果でマルチクラス分類に拡張する。
論文 参考訳(メタデータ) (2024-05-09T17:59:55Z) - Domain Generalization without Excess Empirical Risk [83.26052467843725]
一般的なアプローチは、一般化を捉え、ペナルティと共同で経験的リスクを最小化するために、データ駆動の代理ペナルティを設計することである。
我々は、このレシピの重大な失敗モードは、共同最適化における誤ったペナルティや難しさによる過度なリスクであると主張している。
我々は,この問題を解消するアプローチを提案し,経験的リスクと刑罰を同時に最小化する代わりに,経験的リスクの最適性の制約の下でのペナルティを最小化する。
論文 参考訳(メタデータ) (2023-08-30T08:46:46Z) - The Adversarial Consistency of Surrogate Risks for Binary Classification [20.03511985572199]
逆行訓練は、各例が小さなボール内で悪質に破損する可能性がある場合に、予想される0$-$1$損失を最小限にすることを目指している。
我々は、一貫した代理損失関数の集合の単純かつ完全な特徴づけを与える。
本結果から, 逆一貫したサロゲートのクラスは, 標準設定よりもかなり小さいことが明らかとなった。
論文 参考訳(メタデータ) (2023-05-17T05:27:40Z) - Regret Minimization and Convergence to Equilibria in General-sum Markov
Games [57.568118148036376]
汎用マルコフゲームにおいて,全てのエージェントが実行した場合のサブ線形後悔保証を提供する学習アルゴリズムを初めて提示する。
我々のアルゴリズムは分散化され、計算効率が良く、エージェント間の通信は不要である。
論文 参考訳(メタデータ) (2022-07-28T16:27:59Z) - Towards the Semantic Weak Generalization Problem in Generative Zero-Shot
Learning: Ante-hoc and Post-hoc [89.68803484284408]
生成ゼロショット学習(ZSL)の性能上限を制限した未探索要素を簡易かつ効果的に削減する戦略を提案する。
まず、意味的一般化を正式に定義し、その後、意味的弱一般化問題を減らそうとするアプローチを検討する。
アンテホック相では、ジェネレータのセマンティック入力を増強し、ジェネレータの適合ターゲットを緩和する。
論文 参考訳(メタデータ) (2022-04-24T13:54:42Z) - Minimax Optimal Quantile and Semi-Adversarial Regret via
Root-Logarithmic Regularizers [31.102181563065844]
量子的(そしてより一般的には、KL)後悔は、最高の個人専門家と競争する目標を緩和し、敵対的なデータに関して、ほとんどの専門家と競争するだけである。
最近では、半対人パラダイム(Bilodeau、Negrea、Roy 2020)は、完全に対人的でも対人的でもないデータを考えることによって、対人的オンライン学習の代替緩和を提供する。
我々は、FTRLと別個のルート対数正規化器を併用したFTRLを用いて、両方のパラダイムにおいて最小限の後悔を達成し、どちらも正規Hedgeの変種と解釈できる。
論文 参考訳(メタデータ) (2021-10-27T22:38:52Z) - Foolish Crowds Support Benign Overfitting [20.102619493827024]
ガウスデータによる線形回帰に対するスパース補間手順の過大なリスクの低い境界を証明した。
ここでは, 騒音の適応による害は, 様々な方向に拡げることによって改善されるが, この分析は「群衆の知恵」の利点を露呈する。
論文 参考訳(メタデータ) (2021-10-06T16:56:37Z) - Weakly-Supervised Cross-Domain Adaptation for Endoscopic Lesions
Segmentation [79.58311369297635]
異なるデータセットにまたがるトランスファー可能なドメイン不変知識を探索できる,新しい弱い教師付き病巣移動フレームワークを提案する。
wasserstein quantified transferability frameworkは、広い範囲の転送可能なコンテキスト依存性を強調するために開発されている。
新規な自己監督型擬似ラベル生成器は、送信困難かつ転送容易なターゲットサンプルの両方に対して、確実な擬似ピクセルラベルを等しく提供するように設計されている。
論文 参考訳(メタデータ) (2020-12-08T02:26:03Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。