論文の概要: On Minibatch Noise: Discrete-Time SGD, Overparametrization, and Bayes
- arxiv url: http://arxiv.org/abs/2102.05375v1
- Date: Wed, 10 Feb 2021 10:38:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:44:31.512454
- Title: On Minibatch Noise: Discrete-Time SGD, Overparametrization, and Bayes
- Title(参考訳): ミニバッチノイズ:離散時間SGD,過パラメトリゼーション,ベイズ
- Authors: Liu Ziyin, Kangqiao Liu, Takashi Mori, Masahito Ueda
- Abstract要約: ミニバッチサンプリングによる勾配降下(SGD)の騒音は未だよく分かっていない。
ミニバッチサンプリングが必ずしも変動を引き起こすとは限らないという観測に感銘を受けて,ミニバッチノイズを発生させる条件を見出した。
- 参考スコア(独自算出の注目度): 2.6763498831034043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The noise in stochastic gradient descent (SGD), caused by minibatch sampling,
remains poorly understood despite its enormous practical importance in offering
good training efficiency and generalization ability. In this work, we study the
minibatch noise in SGD. Motivated by the observation that minibatch sampling
does not always cause a fluctuation, we set out to find the conditions that
cause minibatch noise to emerge. We first derive the analytically solvable
results for linear regression under various settings, which are compared to the
commonly used approximations that are used to understand SGD noise. We show
that some degree of mismatch between model and data complexity is needed in
order for SGD to "cause" a noise, and that such mismatch may be due to the
existence of static noise in the labels, in the input, the use of
regularization, or underparametrization. Our results motivate a more accurate
general formulation to describe minibatch noise.
- Abstract(参考訳): 確率勾配降下(SGD)のノイズは, トレーニング効率と一般化能力の両立が極めて重要であるにもかかわらず, ほとんど理解されていない。
本研究では,SGDにおけるミニバッチノイズについて検討する。
ミニバッチサンプリングが必ずしも変動を引き起こすとは限らないという観測に感銘を受けて,ミニバッチノイズを発生させる条件を見出した。
まず,SGDノイズを理解するためによく用いられる近似と比較し,様々な条件下で線形回帰を解析的に解ける結果を得る。
SGDがノイズを「原因」にするために、モデルとデータの複雑さの間にある程度のミスマッチが必要であり、そのようなミスマッチは、入力、正規化の使用、または低パラメータ化におけるラベル内の静的ノイズの存在による可能性があることを示しています。
以上の結果から,より正確な定式化によるミニバッチ雑音の表現が可能となった。
関連論文リスト
- Doubly Stochastic Models: Learning with Unbiased Label Noises and
Inference Stability [85.1044381834036]
勾配降下のミニバッチサンプリング設定におけるラベル雑音の暗黙的正則化効果について検討した。
そのような暗黙的正則化器は、パラメータの摂動に対してモデル出力を安定化できる収束点を好んでいる。
我々の研究は、SGDをオルンシュタイン-ウレンベック類似の過程とはみなせず、近似の収束によってより一般的な結果を得る。
論文 参考訳(メタデータ) (2023-04-01T14:09:07Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - The effective noise of Stochastic Gradient Descent [9.645196221785694]
Gradient Descent (SGD) は、ディープラーニング技術のワークホースアルゴリズムである。
SGDのパラメータと最近導入された変種である永続型SGDをニューラルネットワークモデルで特徴づける。
よりノイズの多いアルゴリズムは、対応する制約満足度問題のより広い決定境界につながる。
論文 参考訳(メタデータ) (2021-12-20T20:46:19Z) - Label Noise SGD Provably Prefers Flat Global Minimizers [48.883469271546076]
過度パラメータ化モデルでは、勾配降下(SGD)のノイズは最適化軌道を暗黙的に規則化し、どの局所最小SGDが収束するかを決定する。
ラベルノイズを持つSGDが正規化損失$L(theta) +lambda R(theta)$の定常点に収束することを示す。
解析の結果,線形スケーリング法則を超越した大規模学習率の正規化効果が明らかとなった。
論文 参考訳(メタデータ) (2021-06-11T17:59:07Z) - Noisy Truncated SGD: Optimization and Generalization [27.33458360279836]
近年のsgdに関する実証研究により、エポックのほとんどの勾配成分は極めて小さいことが示されている。
このような研究に触発され、雑音SGD(NT-SGD)の特性を厳格に研究する。
我々は,NT-SGDがサドルポイントから確実に脱出でき,従来と比べノイズの少ないことを証明した。
論文 参考訳(メタデータ) (2021-02-26T22:39:41Z) - Dynamic of Stochastic Gradient Descent with State-Dependent Noise [84.64013284862733]
勾配降下(SGD)とその変種は、ディープニューラルネットワークを訓練するための主流の方法である。
局所ミニマの局所領域におけるSGDのノイズの共分散は状態の二次関数であることを示す。
本稿では,SGDのダイナミクスを近似するために,状態依存拡散を伴う新しいパワーローダイナミクスを提案する。
論文 参考訳(メタデータ) (2020-06-24T13:34:38Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。