論文の概要: Implicit bias of SGD in $L_{2}$-regularized linear DNNs: One-way jumps
from high to low rank
- arxiv url: http://arxiv.org/abs/2305.16038v2
- Date: Fri, 29 Sep 2023 13:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 18:36:01.915512
- Title: Implicit bias of SGD in $L_{2}$-regularized linear DNNs: One-way jumps
from high to low rank
- Title(参考訳): L_{2}$-regularized linear DNNにおけるSGDの入射バイアス:高位から低位への片方向ジャンプ
- Authors: Zihan Wang, Arthur Jacot
- Abstract要約: 行列補完のようなタスクでは、トレーニングデータに適合する最小限のランクで局所最小値に収束することが目標である。
SGDでは、常に上位から下位にジャンプする確率があるが、後退する確率はゼロである。
- 参考スコア(独自算出の注目度): 22.850359181621023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The $L_{2}$-regularized loss of Deep Linear Networks (DLNs) with more than
one hidden layers has multiple local minima, corresponding to matrices with
different ranks. In tasks such as matrix completion, the goal is to converge to
the local minimum with the smallest rank that still fits the training data.
While rank-underestimating minima can be avoided since they do not fit the
data, GD might get stuck at rank-overestimating minima. We show that with SGD,
there is always a probability to jump from a higher rank minimum to a lower
rank one, but the probability of jumping back is zero. More precisely, we
define a sequence of sets $B_{1}\subset B_{2}\subset\cdots\subset B_{R}$ so
that $B_{r}$ contains all minima of rank $r$ or less (and not more) that are
absorbing for small enough ridge parameters $\lambda$ and learning rates
$\eta$: SGD has prob. 0 of leaving $B_{r}$, and from any starting point there
is a non-zero prob. for SGD to go in $B_{r}$.
- Abstract(参考訳): l_{2}$-regularized loss of deep linear networks (dlns) は複数の隠れ層を持つ。
行列補完のようなタスクでは、トレーニングデータに適合する最小限のランクで局所最小値に収束することが目標である。
ランク推定ミニマはデータに合わないため回避できるが、ランク推定ミニマではGDが立ち往生する可能性がある。
sgdでは, 最下位から下位にジャンプする確率は常に存在するが, ジャンプバックの確率はゼロである。
より正確には、$b_{1}\subset b_{2}\subset\cdots\subset b_{r}$ の列を定義して、$b_{r}$ は、十分に小さなリッジパラメータである $\lambda$ と学習率 $\eta$: sgd が prob を持つランク$r$ 以下の全てのミニマを含む。
0 は$B_{r}$ を残さず、任意の開始点から 0 でない確率が存在する。
SGD が$B_{r}$
関連論文リスト
- Low-rank Matrix Bandits with Heavy-tailed Rewards [55.03293214439741]
アンダーライン重み付きアンダーラインリワード(LowHTR)を用いたアンダーラインローランク行列バンディットの問題点について検討する。
観測されたペイオフに対するトランケーションと動的探索を利用して,LOTUSと呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-26T21:54:31Z) - Low-Rank Bandits via Tight Two-to-Infinity Singular Subspace Recovery [45.601316850669406]
本稿では,政策評価,最良政策識別,後悔の最小化のための効率的なアルゴリズムを提案する。
政策評価と最良の政策識別のために,我々のアルゴリズムは最小限に最適であることを示す。
提案アルゴリズムは、まずスペクトル法を利用して、低ランク報酬行列の左特異部分空間と右特異部分空間を推定する。
論文 参考訳(メタデータ) (2024-02-24T06:36:08Z) - Nearly Minimax Optimal Regret for Learning Linear Mixture Stochastic
Shortest Path [80.60592344361073]
線形混合遷移カーネルを用いた最短経路(SSP)問題について検討する。
エージェントは繰り返し環境と対話し、累積コストを最小化しながら特定の目標状態に到達する。
既存の作業は、イテレーションコスト関数の厳密な下限や、最適ポリシーに対する期待長の上限を仮定することが多い。
論文 参考訳(メタデータ) (2024-02-14T07:52:00Z) - Convergence of Gradient Descent with Small Initialization for
Unregularized Matrix Completion [21.846732043706318]
バニラ勾配降下は、明示的な正則化を必要とせず、必ず基底真理$rmXstar$に収束することを示す。
驚くべきことに、収束率も最終的な精度もオーバーパラメータ化された検索ランク$r'$に依存しておらず、それらは真のランク$r$によってのみ支配される。
論文 参考訳(メタデータ) (2024-02-09T19:39:23Z) - Overcoming the Long Horizon Barrier for Sample-Efficient Reinforcement
Learning with Latent Low-Rank Structure [9.759209713196718]
我々は、対応する最適$Q*$関数が低ランクであるMDPのクラスを考える。
より強い低階構造仮定の下では、生成モデル(LR-MCPI)と低階経験値イテレーション(LR-EVI)が、ランクに対して$tildeOleft((|S|+|A|)mathrmpoly(d,H)/epsilon2right)$の所望のサンプル複雑性を実現することが示されている。
論文 参考訳(メタデータ) (2022-06-07T20:39:51Z) - Sharp Global Guarantees for Nonconvex Low-Rank Matrix Recovery in the
Overparameterized Regime [16.422215672356167]
我々は,非低位行列の回復が局所的な極小を含まないことを証明した。
RIP 定数 $delta1/2$ は、$rstarle r$ に対する明示的な制御がなければ、ランク-$r$基底真理の正確な回復に必要かつ十分である。
論文 参考訳(メタデータ) (2021-04-21T23:07:18Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Mixture Markov
Decision Processes [91.38793800392108]
本稿では,マルコフ決定過程(MDP)の遷移確率核が線形混合モデルである線形関数近似による強化学習について検討する。
上記の線形混合 MDP に対して$textUCRL-VTR+$ という線形関数近似を用いた計算効率の良い新しいアルゴリズムを提案する。
我々の知る限り、これらは線形関数近似を持つRLのための計算効率が良く、ほぼ最小のアルゴリズムである。
論文 参考訳(メタデータ) (2020-12-15T18:56:46Z) - $Q$-learning with Logarithmic Regret [60.24952657636464]
楽観的な$Q$は$mathcalOleft(fracSAcdot mathrmpolyleft(Hright)Delta_minlogleft(SATright)right)$ cumulative regret bound, where $S$ is the number of state, $A$ is the number of action, $H$ is the planning horizon, $T$ is the total number of steps, $Delta_min$ is the least sub-Optitimality gap。
論文 参考訳(メタデータ) (2020-06-16T13:01:33Z) - Average Case Column Subset Selection for Entrywise $\ell_1$-Norm Loss [76.02734481158458]
最悪の場合、行列に対する良いランク-$k$近似を得るには、任意に大きい$nOmega(1)$列数が必要であることが知られている。
最小かつ現実的な分布設定では、ほぼ線形な実行時間を持つ$(k/epsilon)$-approximationとpoly$(k/epsilon)+O(klog n)$ columnsが得られる。
これは、エントリワイズで$(k/epsilon)$-approximationを達成するための任意の種類の最初のアルゴリズムである
論文 参考訳(メタデータ) (2020-04-16T22:57:06Z) - Learning Near Optimal Policies with Low Inherent Bellman Error [115.16037976819331]
エピソード強化学習における近似線形作用値関数を用いた探索問題について検討する。
我々は,検討した設定に対して最適な統計率を達成するアルゴリズムを用いて,Emphbatch仮定のみを用いて探索を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2020-02-29T02:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。