論文の概要: The Geometry of Mixability
- arxiv url: http://arxiv.org/abs/2302.11905v1
- Date: Thu, 23 Feb 2023 10:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-02-24 15:43:59.980403
- Title: The Geometry of Mixability
- Title(参考訳): 混合性の幾何学
- Authors: Armando J. Cabrera Pacheco, Robert C. Williamson
- Abstract要約: 二項および多項の場合の混合性に関する簡易な幾何学的特徴付けを提供する。
我々のアプローチは、損失関数に関するいくつかの概念を'コーディネートフリー'な方法で扱う方法を提供する。
- 参考スコア(独自算出の注目度): 8.873449722727026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixable loss functions are of fundamental importance in the context of
prediction with expert advice in the online setting since they characterize
fast learning rates. By re-interpreting properness from the point of view of
differential geometry, we provide a simple geometric characterization of
mixability for the binary and multi-class cases: a proper loss function $\ell$
is $\eta$-mixable if and only if the superpredition set $\textrm{spr}(\eta
\ell)$ of the scaled loss function $\eta \ell$ slides freely inside the
superprediction set $\textrm{spr}(\ell_{\log})$ of the log loss $\ell_{\log}$,
under fairly general assumptions on the differentiability of $\ell$. Our
approach provides a way to treat some concepts concerning loss functions (like
properness) in a ''coordinate-free'' manner and reconciles previous results
obtained for mixable loss functions for the binary and the multi-class cases.
- Abstract(参考訳): 混合損失関数は、学習速度の速さを特徴付けるため、オンライン環境でのエキスパートアドバイスによる予測の文脈において、基本的な重要性である。
By re-interpreting properness from the point of view of differential geometry, we provide a simple geometric characterization of mixability for the binary and multi-class cases: a proper loss function $\ell$ is $\eta$-mixable if and only if the superpredition set $\textrm{spr}(\eta \ell)$ of the scaled loss function $\eta \ell$ slides freely inside the superprediction set $\textrm{spr}(\ell_{\log})$ of the log loss $\ell_{\log}$, under fairly general assumptions on the differentiability of $\ell$.
提案手法は,損失関数に関するいくつかの概念を'コーディネートフリー'な方法で扱う方法を提供し,二進数と多クラスの場合の混合損失関数に対して得られた過去の結果を整理する。
関連論文リスト
- Loss Functions and Operators Generated by f-Divergences [21.58093510003414]
本稿では,$f$-divergencesに基づいて新しい凸損失関数を構築することを提案する。
ロジスティック損失と類似して、$f$-divergenceによって生成される損失関数は演算子と関連付けられ、$f$-softargmax をダブする。
本研究の目的は,言語モデル設定における古典的クロスエントロピーを超えた損失関数の有効性を決定することである。
論文 参考訳(メタデータ) (2025-01-30T18:06:18Z) - Omnipredictors for Regression and the Approximate Rank of Convex
Functions [7.549720420141907]
クラス $mathcal L$ の損失関数とクラス $mathcal C$ の損失予測器は、$mathcal L$ の損失毎に $mathcal C$ の最良の仮説よりも予想される損失が少ない予測器である。
論文 参考訳(メタデータ) (2024-01-26T04:29:53Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online Ensemble Approach [57.92727189589498]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $hatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - No-Regret Online Reinforcement Learning with Adversarial Losses and
Transitions [39.864174754882754]
対戦型マルコフ決定プロセスのための既存のオンライン学習アルゴリズムは、T$ラウンドのインタラクションの後、後悔して$O(sqrtT)を達成します。
これは、対向遷移関数が非回帰学習を不可能にすることが示されているためである。
我々は、$widetildeO(sqrtT + CtextsfP)$ regretというアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-27T06:10:17Z) - Optimal Sketching Bounds for Sparse Linear Regression [116.30196615349226]
我々は、$ell_p$ノルムや広範なヒンジ様損失関数のクラスから、様々な損失関数の下で、$k$スパース線形回帰の難読スケッチを研究する。
スパース$ell$varepsレグレッションの場合、$Theta(klog(d/k)/varepsilon2)$ rowsでスケッチの上に曖昧な分布が存在し、これは定数要素に固執することを示している。
また、$O(mu2 klog(mun d/varepsilon)/varのスケッチも示します。
論文 参考訳(メタデータ) (2023-04-05T07:24:19Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Revisiting L1 Loss in Super-Resolution: A Probabilistic View and Beyond [28.90772192259691]
不正な問題としての超分解能は、低分解能入力に対する多くの高分解能候補を持つ。
提案する目的関数は,すべての可算解に対する再構成誤差の期待値の最小化を目的とする。
論文 参考訳(メタデータ) (2022-01-25T04:04:44Z) - Omnipredictors [19.735769148626588]
ロス最小化は機械学習において支配的なパラダイムである。
我々は家族の損失を最適化するために使用できる$mathcalL,mathcalC$)-omnipredictorの概念を紹介した。
このような「余分な知識」の学習は、多重校正とのつながりを通して実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-11T23:28:49Z) - Coresets for Classification -- Simplified and Strengthened [19.54307474041768]
損失関数の幅広いクラスを持つ線形分類器を訓練するための相対誤差コアセットを与える。
我々の構成は $tilde O(d cdot mu_y(X)2/epsilon2)$point, where $mu_y(X)$ は mathbbRn times d$ のデータ行列 $X と -1,1n$ のラベルベクトル $y の自然な複雑性測度である。
論文 参考訳(メタデータ) (2021-06-08T11:24:18Z) - Provable Robustness of Adversarial Training for Learning Halfspaces with
Noise [95.84614821570283]
ラベル雑音の存在下での敵対的ロバストなハーフスペースの特性を分析する。
我々の知る限りでは、これは敵の訓練がノイズの分類子を与えることを示す最初の研究である。
論文 参考訳(メタデータ) (2021-04-19T16:35:38Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Sample Complexity of Adversarially Robust Linear Classification on
Separated Data [41.30425613353595]
対向的堅牢性を伴う学習の複雑さについて考察する。
非常に分離されたデータの場合、$o(frac1n)$の収束率は達成可能である。
論文 参考訳(メタデータ) (2020-12-19T22:04:59Z) - Taking a hint: How to leverage loss predictors in contextual bandits? [63.546913998407405]
我々は,損失予測の助けを借りて,文脈的包帯における学習を研究する。
最適な後悔は$mathcalO(minsqrtT, sqrtmathcalETfrac13)$である。
論文 参考訳(メタデータ) (2020-03-04T07:36:38Z) - On the Modularity of Hypernetworks [103.1147622394852]
構造化対象関数の場合、ハイパーネットワークにおけるトレーニング可能なパラメータの総数は、標準ニューラルネットワークのトレーニング可能なパラメータの数や埋め込み法よりも桁違いに小さいことを示す。
論文 参考訳(メタデータ) (2020-02-23T22:51:52Z) - Supervised Learning: No Loss No Cry [51.07683542418145]
教師付き学習は最小化するために損失関数の仕様を必要とする。
本稿では,Kakade et al. (2011)のSLIsotronアルゴリズムを新しいレンズで再検討する。
損失を学習するための原則的な手順をいかに提供するかを示す。
論文 参考訳(メタデータ) (2020-02-10T05:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。