論文の概要: On the Rademacher Complexity of Linear Hypothesis Sets
- arxiv url: http://arxiv.org/abs/2007.11045v1
- Date: Tue, 21 Jul 2020 19:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:10:55.009901
- Title: On the Rademacher Complexity of Linear Hypothesis Sets
- Title(参考訳): 線形仮説集合のラデマッハ複雑性について
- Authors: Pranjal Awasthi, Natalie Frank, Mehryar Mohri
- Abstract要約: 我々は、任意の$p geq 1$に対して $ell_p$-norm で有界な重みベクトルを持つ線形仮説クラスの族における経験的ラデマッハ複雑性を厳密に解析する。
これはこれらの仮説集合を用いた一般化の厳密な解析を提供し、鋭いデータ依存学習保証の導出を支援する。
- 参考スコア(独自算出の注目度): 45.06091849856641
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear predictors form a rich class of hypotheses used in a variety of
learning algorithms. We present a tight analysis of the empirical Rademacher
complexity of the family of linear hypothesis classes with weight vectors
bounded in $\ell_p$-norm for any $p \geq 1$. This provides a tight analysis of
generalization using these hypothesis sets and helps derive sharp
data-dependent learning guarantees. We give both upper and lower bounds on the
Rademacher complexity of these families and show that our bounds improve upon
or match existing bounds, which are known only for $1 \leq p \leq 2$.
- Abstract(参考訳): 線形予測子は、様々な学習アルゴリズムで使われる仮説の豊富なクラスを形成する。
我々は、任意の$p \geq 1$ に対して$\ell_p$-norm で有界な重みベクトルを持つ線形仮説クラスの経験的ラデマッハ複雑性を厳密に解析する。
これはこれらの仮説集合を用いた一般化の厳密な解析を提供し、鋭いデータ依存学習保証の導出を支援する。
これらの族のラデマッハ複雑性の上限を上限と下限の両方を与え、我々の境界が既存の境界を改善または一致していることを示し、これは1 \leq p \leq 2$ でしか知られていない。
関連論文リスト
- Improved Regret of Linear Ensemble Sampling [9.410437324336275]
アンサンブルサイズを$T$とすると、線形アンサンブルサンプリングは$tildemathcalO(d3/2sqrtT)$の頻繁な残差を達成できる。
我々の貢献は、アンサンブルサンプリングの理論的な基礎を前進させ、他のランダム化探索アルゴリズムの最もよく知られた境界と一致させた。
論文 参考訳(メタデータ) (2024-11-06T14:09:11Z) - Prediction, Learning, Uniform Convergence, and Scale-sensitive
Dimensions [39.97534972432276]
本稿では,$[0,1]$-valued関数のクラスを学習するための新しい汎用アルゴリズムを提案する。
このアルゴリズムの絶対誤差の一般上界を証明した。
本研究は, 学習の複雑さに関する一般化された一般境界を得るために, 両方のパッキングバウンドをどう適用するかを示す。
論文 参考訳(メタデータ) (2023-04-21T15:51:35Z) - Generalization Analysis for Contrastive Representation Learning [80.89690821916653]
既存の一般化誤差境界は負の例の数$k$に線形に依存する。
対数項まで$k$に依存しないコントラスト学習のための新しい一般化境界を確立する。
論文 参考訳(メタデータ) (2023-02-24T01:03:56Z) - On the Complexity of a Practical Primal-Dual Coordinate Method [63.899427212054995]
ランダム・座標降下法(PURE-CD)を用いた原始双対アルゴリズムの複雑性境界を証明した。
バイマックス性能問題を解くための優れた外挿が得られることが示されている。
論文 参考訳(メタデータ) (2022-01-19T16:14:27Z) - Robust Linear Predictions: Analyses of Uniform Concentration, Fast Rates
and Model Misspecification [16.0817847880416]
ヒルベルト空間上の様々な線形予測問題を含む統一的なフレームワークを提供する。
誤特定レベル $epsilon$ に対して、これらの推定器は、文献で最もよく知られたレートと一致する、$O(maxleft|mathcalO|1/2n-1/2, |mathcalI|1/2n-1 right+epsilon)$ の誤差率を達成する。
論文 参考訳(メタデータ) (2022-01-06T08:51:08Z) - Localization, Convexity, and Star Aggregation [0.0]
オフセットラデマッハ複体は、正方形損失に対する鋭く線形依存的な上界を示すことが示されている。
統計的設定では、オフセット境界は一定の均一な凸性を満たす任意の損失に一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-05-19T00:47:59Z) - Bilinear Classes: A Structural Framework for Provable Generalization in
RL [119.42509700822484]
Bilinear Classesは強化学習の一般化を可能にする新しい構造フレームワークである。
このフレームワークは、サンプルの複雑さが達成可能な、ほとんどすべての既存のモデルを取り込んでいる。
我々の主な成果は、双線形クラスのためのサンプル複雑性を持つRLアルゴリズムである。
論文 参考訳(メタデータ) (2021-03-19T16:34:20Z) - Relative Deviation Margin Bounds [55.22251993239944]
我々はRademacher複雑性の観点から、分布依存と一般家庭に有効な2種類の学習境界を与える。
有限モーメントの仮定の下で、非有界な損失関数に対する分布依存的一般化境界を導出する。
論文 参考訳(メタデータ) (2020-06-26T12:37:17Z) - Adversarial Learning Guarantees for Linear Hypotheses and Neural
Networks [45.06091849856641]
線形仮説の対角的経験的ラデマチャー複雑性に対して, 上下境界を与える。
我々は解析を拡張し、1つのReLUユニットに対してRadecherの複雑性を下限と上限に設定する。
最後に、1つの隠蔽層を持つフィードフォワードニューラルネットワークに対して、逆ラデマチャー複雑性境界を与える。
論文 参考訳(メタデータ) (2020-04-28T15:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。