論文の概要: Why Transformers Need Adam: A Hessian Perspective
- arxiv url: http://arxiv.org/abs/2402.16788v1
- Date: Mon, 26 Feb 2024 18:01:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-28 19:38:50.016785
- Title: Why Transformers Need Adam: A Hessian Perspective
- Title(参考訳): トランスフォーマーがAdamを必要とする理由
- Authors: Yushun Zhang, Congliang Chen, Tian Ding, Ziniu Li, Ruoyu Sun, Zhi-Quan
Luo
- Abstract要約: ブロックのヘッセンスペクトルは、ブロックの不均一性と呼ばれる現象として、劇的に変化する」。
SGDは、ブロック間の不均一性を扱うことができない、すべてのブロックに対して1つの学習率を適用するため、フェールする。
Adam氏が設計したように、ブロック毎に異なる学習率を割り当てることができれば、失敗は解決できるでしょう。
- 参考スコア(独自算出の注目度): 25.890325253955695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SGD performs worse than Adam by a significant margin on Transformers, but the
reason remains unclear. In this work, we provide an explanation of SGD's
failure on Transformers through the lens of Hessian: (i) Transformers are
``heterogeneous'': the Hessian spectrum across parameter blocks vary
dramatically, a phenomenon we call ``block heterogeneity"; (ii) Heterogeneity
hampers SGD: SGD performs badly on problems with block heterogeneity. To
validate that heterogeneity hampers SGD, we check various Transformers, CNNs,
MLPs, and quadratic problems, and find that SGD works well on problems without
block heterogeneity but performs badly when the heterogeneity exists. Our
initial theoretical analysis indicates that SGD fails because it applies one
single learning rate for all blocks, which cannot handle the heterogeneity
among blocks. The failure could be rescued if we could assign different
learning rates across blocks, as designed in Adam.
- Abstract(参考訳): SGDはトランスフォーマーのかなりの差でAdamよりもパフォーマンスが悪いが、その理由は不明だ。
本稿では、ヘッセンのレンズを通してSGDがトランスフォーマーに失敗したことを説明する。
(i)トランスフォーマーは ``heterogeneous'' であり、パラメータブロック間のヘッシアンスペクトルは劇的に異なり、``block heterogeneity' と呼ばれる現象である。
(II) 異種ハマーSGD: SGDはブロックの不均一性の問題に対してひどく作用する。
ヘテロジニティハマーSGDを検証するために、様々なトランスフォーマー、CNN、MPP、二次問題を確認し、異種性をブロックすることなく問題に対してうまく機能するが、異種性が存在する場合には性能が良くないことを示す。
我々の最初の理論的分析は、SGDはブロック間の不均一性を扱うことができない全てのブロックに対して1つの学習率を適用するため失敗することを示している。
adam氏が設計したように、ブロック間で異なる学習率を割り当てることができれば、失敗は救えるでしょう。
関連論文リスト
- Why Adam Can Beat SGD: Second-Moment Normalization Yields Sharper Tails [66.18297682243694]
我々は、アダムにおける重要な第二モーメント正規化を発見し、アダムとSGDを区別する停止時間/マーチンゲール解析を開発した。
特に,2つの手法の高確率収束挙動の最初の理論的分離を確立する。
論文 参考訳(メタデータ) (2026-03-03T15:34:51Z) - Understanding Agent Scaling in LLM-Based Multi-Agent Systems via Diversity [48.409368133277525]
エージェント数ではなく,本質的なタスクの不確実性によってMAS性能が拘束されていることを示す情報理論フレームワークを提案する。
アーキテクチャに依存しないバウンダリを導出し、システムへのアクセスする有効なチャネルの数に依存することを示す。
本結果は,多様性を意識した設計を通じて,効率的で堅牢なMASを構築するための原則的ガイドラインを提供する。
論文 参考訳(メタデータ) (2026-02-03T17:58:10Z) - Implicit Bias of Per-sample Adam on Separable Data: Departure from the Full-batch Regime [26.492222550365735]
アダムは深層学習の事実上のデファクトであるが、理論的な理解は限られている。
線形分離可能なデータに対するロジスティック回帰のために, インクリメンタルAdamの暗黙バイアス(ステップ毎に1つのサンプルを用いて)について検討した。
我々は、Adam が $ell_infty$-max-margin に確実に収束する構造化データセットのクラスを構築する。
論文 参考訳(メタデータ) (2025-10-30T09:41:33Z) - Understanding the Generalization of Stochastic Gradient Adam in Learning Neural Networks [38.11287525994738]
アダムの一般化にどのように影響するかに関する最初の理論的特徴を示す。
以上の結果から,AdamとAdamWはともに適切な重みの減衰を伴って貧弱なテスト誤差解に収束するが,そのミニバッチ変種はほぼゼロのテスト誤差を達成できることがわかった。
論文 参考訳(メタデータ) (2025-10-13T12:48:22Z) - Is your batch size the problem? Revisiting the Adam-SGD gap in language modeling [36.106114687828395]
言語モデルでは、AdamはGradient Descent(SGD)よりもはるかに優れていることが知られている。
我々は,SGDとAdamのギャップに運動量,勾配クリッピング,バッチサイズがどのような影響を及ぼすか,徹底的に検討した。
論文 参考訳(メタデータ) (2025-06-14T15:37:31Z) - Adam Exploits $\ell_\infty$-geometry of Loss Landscape via Coordinate-wise Adaptivity [6.270305440413688]
好ましくは $ell_infty$-geometry が SGD であるのに対して、Adam は影響を受けていない。
我々の実験は、好ましくは $ell_infty$-geometry が SGD であるのに対して、Adam が影響を受けていない場合、さらに悪化することを確認した。
論文 参考訳(メタデータ) (2024-10-10T17:58:53Z) - Alleviating Structural Distribution Shift in Graph Anomaly Detection [70.1022676681496]
グラフ異常検出(GAD)は二項分類の問題である。
ガロン神経ネットワーク(GNN)は、同胞性隣人からの正常の分類に有用である。
ヘテロ親水性隣人の影響を緩和し、不変にするための枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-25T13:07:34Z) - Noise Is Not the Main Factor Behind the Gap Between SGD and Adam on
Transformers, but Sign Descent Might Be [16.170888329408353]
大規模なバッチを持つAdamの挙動は、運動量を持つ符号降下と類似していることが示される。
我々は,SGDとAdamのパフォーマンスギャップにおいて,重み付けノイズと重み付けノイズが重要な要因ではないことを示す。
論文 参考訳(メタデータ) (2023-04-27T05:41:13Z) - Provable Adaptivity of Adam under Non-uniform Smoothness [79.25087082434975]
アダムは急速に収束するため、実用的な用途で広く採用されている。
アダムの既存の収束解析は、有界な滑らかさの仮定に依存する。
本稿では,ランダムにリシャッフルされたAdamの学習率の低下に伴う収束について検討する。
論文 参考訳(メタデータ) (2022-08-21T14:57:47Z) - Understanding and Improving Graph Injection Attack by Promoting
Unnoticeability [69.3530705476563]
グラフインジェクションアタック(GIA)はグラフニューラルネットワーク(GNN)の実用的な攻撃シナリオである
グラフ修正攻撃 (GMA) と比較したところ, GIA は比較的高い柔軟性のため, GMA よりも明らかに有害であることがわかった。
我々は,GAAがホモフィリを維持することを強制する,新しい制約-ホモフィリな無意味性を導入し,そのインスタンス化のためにハーモニアス・アドバイサリアル・オブジェクト(HAO)を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:41:39Z) - Understanding AdamW through Proximal Methods and Scale-Freeness [57.47324825501137]
Adam は $ell$ regularizer Adam-$ell$ の一般化である。
AdamWは、Adam-$ell$の更新ルールからAdam-$ell$の勾配を分離する。
我々はAdamWがAdam-$ell$よりも有利であることを示し、ネットワークの勾配が複数のスケールを示すことを期待する度合いを示す。
論文 参考訳(メタデータ) (2022-01-31T21:00:55Z) - A Novel Convergence Analysis for Algorithms of the Adam Family [105.22760323075008]
本稿ではAdam, AMSGrad, AdaboundなどのAdamスタイルの手法群に対する収束の一般的な証明を示す。
我々の分析は非常に単純で汎用的なので、より広範な非構成最適化問題の族を解くための収束を確立するために利用することができる。
論文 参考訳(メタデータ) (2021-12-07T02:47:58Z) - Adam$^+$: A Stochastic Method with Adaptive Variance Reduction [56.051001950733315]
Adamはディープラーニングアプリケーションに広く使われている最適化手法である。
我々はAdam$+$(Adam-plusと発音する)という新しい方法を提案する。
画像分類,言語モデリング,自動音声認識など,さまざまなディープラーニングタスクに関する実証研究により,Adam$+$がAdamを著しく上回ることを示した。
論文 参考訳(メタデータ) (2020-11-24T09:28:53Z) - AdaSGD: Bridging the gap between SGD and Adam [14.886598905466604]
我々はSGDとAdamのパフォーマンスの潜在的な違いを同定する。
我々は、AdaSGDがSGD AdamとSGD非降下の両方の利点を組み合わせていることを実証する。
論文 参考訳(メタデータ) (2020-06-30T05:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。