論文の概要: Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model
- arxiv url: http://arxiv.org/abs/2006.08212v2
- Date: Tue, 27 Oct 2020 08:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:52:24.704857
- Title: Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model
- Title(参考訳): 雑音非線形線形モデルによる確率勾配勾配の高次非パラメトリック収束速度
- Authors: Rapha\"el Berthier (PSL, SIERRA), Francis Bach (SIERRA, PSL), Pierre
Gaillard (SIERRA, PSL, Thoth)
- Abstract要約: このモデルに基づく最小二乗リスクに対する1パス, 固定段差勾配勾配の収束度を解析した。
特殊な場合として、ランダムなサンプリング点における値のノイズのない観測から単位区間上の実関数を推定するオンラインアルゴリズムを解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of statistical supervised learning, the noiseless linear model
assumes that there exists a deterministic linear relation $Y = \langle
\theta_*, X \rangle$ between the random output $Y$ and the random feature
vector $\Phi(U)$, a potentially non-linear transformation of the inputs $U$. We
analyze the convergence of single-pass, fixed step-size stochastic gradient
descent on the least-square risk under this model. The convergence of the
iterates to the optimum $\theta_*$ and the decay of the generalization error
follow polynomial convergence rates with exponents that both depend on the
regularities of the optimum $\theta_*$ and of the feature vectors $\Phi(u)$. We
interpret our result in the reproducing kernel Hilbert space framework. As a
special case, we analyze an online algorithm for estimating a real function on
the unit interval from the noiseless observation of its value at randomly
sampled points; the convergence depends on the Sobolev smoothness of the
function and of a chosen kernel. Finally, we apply our analysis beyond the
supervised learning setting to obtain convergence rates for the averaging
process (a.k.a. gossip algorithm) on a graph depending on its spectral
dimension.
- Abstract(参考訳): 統計的教師付き学習の文脈において、ノイズのない線形モデルは、ランダム出力 $y$ とランダム特徴ベクトル $\phi(u)$ の間に決定論的線型関係 $y = \langle \theta_*, x \rangle$ が存在すると仮定する。
このモデルに基づく最小二乗リスクに対する1パス, 固定ステップサイズ確率勾配勾配の収束度を解析した。
イテレートの最適な$\theta_*$への収束と一般化誤差の減衰は、最適な$\theta_*$ と特徴ベクトル $\phi(u)$ の正則性に依存する指数の多項式収束率に従う。
我々はこの結果をカーネルヒルベルト空間フレームワークで解釈する。
特別な場合として,ランダムにサンプリングされた点における値のノイズのない観測から単位間隔の実関数を推定するオンラインアルゴリズムを解析し,関数と選択したカーネルのソボレフ平滑度に依存する。
最後に,教師付き学習環境を超えて解析を行い,そのスペクトル次元に応じて平均化過程(すなわちゴシップアルゴリズム)の収束率を求める。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Thinking Outside the Ball: Optimal Learning with Gradient Descent for
Generalized Linear Stochastic Convex Optimization [37.177329562964765]
我々は凸リプシッツ損失を伴う線形予測、あるいはより一般に一般化線型形式の凸最適化問題を考える。
この設定では、初期反復が明示的な正規化や投影を伴わずにグラディエント Descent (GD) を停止し、過大なエラーを最大$epsilon$で保証することを示した。
しかし、標準球における一様収束は、$Theta (1/epsilon4)$サンプルを用いた最適下界学習を保証できることを示しているが、分布依存球における一様収束に依存している。
論文 参考訳(メタデータ) (2022-02-27T09:41:43Z) - Single Trajectory Nonparametric Learning of Nonlinear Dynamics [8.438421942654292]
力学系の1つの軌道が与えられた場合、非パラメトリック最小二乗推定器(LSE)の性能を解析する。
我々は最近開発された情報理論手法を活用し、非仮説クラスに対するLSEの最適性を確立する。
我々は、リプシッツ力学、一般化線形モデル、再生ケルネルヒルベルト空間(RKHS)のある種のクラスで記述される関数によって記述される力学など、実用上の関心のあるいくつかのシナリオを専門とする。
論文 参考訳(メタデータ) (2022-02-16T19:38:54Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Convergence Rates of Stochastic Gradient Descent under Infinite Noise
Variance [14.06947898164194]
ヘビーテールは様々なシナリオで勾配降下 (sgd) で現れる。
SGDの収束保証は、潜在的に無限のばらつきを持つ状態依存性および重尾ノイズ下で提供します。
その結果,SGDは無限に分散した重尾雑音下であっても,地球最適値に収束できることが示された。
論文 参考訳(メタデータ) (2021-02-20T13:45:11Z) - Last iterate convergence of SGD for Least-Squares in the Interpolation
regime [19.05750582096579]
基本最小二乗構成におけるノイズレスモデルについて検討する。
最適予測器が完全に入力に適合すると仮定し、$langletheta_*, phi(X) rangle = Y$, ここで$phi(X)$は無限次元の非線型特徴写像を表す。
論文 参考訳(メタデータ) (2021-02-05T14:02:20Z) - A Random Matrix Analysis of Random Fourier Features: Beyond the Gaussian
Kernel, a Precise Phase Transition, and the Corresponding Double Descent [85.77233010209368]
本稿では、データサンプルの数が$n$である現実的な環境で、ランダムフーリエ(RFF)回帰の正確さを特徴付けます。
この分析はまた、大きな$n,p,N$のトレーニングとテスト回帰エラーの正確な推定も提供する。
論文 参考訳(メタデータ) (2020-06-09T02:05:40Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。