論文の概要: Why Transformers Need Adam: A Hessian Perspective
- arxiv url: http://arxiv.org/abs/2402.16788v2
- Date: Mon, 27 May 2024 16:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 06:55:50.097875
- Title: Why Transformers Need Adam: A Hessian Perspective
- Title(参考訳): トランスフォーマーがAdamを必要とする理由:ヘッセンの視点
- Authors: Yushun Zhang, Congliang Chen, Tian Ding, Ziniu Li, Ruoyu Sun, Zhi-Quan Luo,
- Abstract要約: SGDはトランスフォーマーのかなりの差でAdamよりもパフォーマンスが悪くなっている。
ヘシアンレンズを用いたトランスフォーマーにおけるSGDの悪い性能について説明する。
- 参考スコア(独自算出の注目度): 24.43369071414824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SGD performs worse than Adam by a significant margin on Transformers, but the reason remains unclear. In this work, we provide an explanation of SGD's bad performance on Transformers through the lens of Hessian: (i) Transformers are "heterogeneous": the Hessian spectrum across parameter blocks vary dramatically, a phenomenon we call "block heterogeneity"; (ii) Heterogeneity hampers SGD: SGD performs badly on problems with block heterogeneity. To validate that heterogeneity hampers SGD, we check various Transformers, CNNs, MLPs, and quadratic problems, and find that SGD works well on problems without block heterogeneity but performs badly when the heterogeneity exists. Our initial theoretical analysis indicates that SGD performs poorly because it applies one single learning rate to all blocks, which cannot handle the heterogeneity among blocks. This limitation could be ameliorated if we use coordinate-wise learning rates, as designed in Adam.
- Abstract(参考訳): SGDはトランスフォーマーのかなりの差でAdamよりもパフォーマンスが悪いが、その理由は不明だ。
本稿では、ヘッセンのレンズによるトランスフォーマーにおけるSGDの悪い性能について説明する。
(i)変圧器は「異質性」であり、パラメータブロックのヘッセンスペクトルは「異質性ブロック」と呼ばれる現象によって劇的に変化する。
(II) 異種ハマーSGD: SGDはブロックの不均一性の問題に対してひどく作用する。
ヘテロジニティハマーSGDを検証するために、様々なトランスフォーマー、CNN、MPP、二次問題を確認し、異種性をブロックすることなく問題に対してうまく機能するが、異種性が存在する場合には性能が良くないことを示す。
最初の理論的解析から,SGDはブロック間の不均一性を扱えない1つの学習速度を全てのブロックに適用できるため,性能が低いことが示唆された。
この制限は、Adam氏が設計したように、座標学習率を使用すると改善される可能性がある。
関連論文リスト
- Adam Exploits $\ell_\infty$-geometry of Loss Landscape via Coordinate-wise Adaptivity [6.270305440413688]
好ましくは $ell_infty$-geometry が SGD であるのに対して、Adam は影響を受けていない。
我々の実験は、好ましくは $ell_infty$-geometry が SGD であるのに対して、Adam が影響を受けていない場合、さらに悪化することを確認した。
論文 参考訳(メタデータ) (2024-10-10T17:58:53Z) - Alleviating Structural Distribution Shift in Graph Anomaly Detection [70.1022676681496]
グラフ異常検出(GAD)は二項分類の問題である。
ガロン神経ネットワーク(GNN)は、同胞性隣人からの正常の分類に有用である。
ヘテロ親水性隣人の影響を緩和し、不変にするための枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-25T13:07:34Z) - Noise Is Not the Main Factor Behind the Gap Between SGD and Adam on
Transformers, but Sign Descent Might Be [16.170888329408353]
大規模なバッチを持つAdamの挙動は、運動量を持つ符号降下と類似していることが示される。
我々は,SGDとAdamのパフォーマンスギャップにおいて,重み付けノイズと重み付けノイズが重要な要因ではないことを示す。
論文 参考訳(メタデータ) (2023-04-27T05:41:13Z) - Provable Adaptivity of Adam under Non-uniform Smoothness [79.25087082434975]
アダムは急速に収束するため、実用的な用途で広く採用されている。
アダムの既存の収束解析は、有界な滑らかさの仮定に依存する。
本稿では,ランダムにリシャッフルされたAdamの学習率の低下に伴う収束について検討する。
論文 参考訳(メタデータ) (2022-08-21T14:57:47Z) - Understanding and Improving Graph Injection Attack by Promoting
Unnoticeability [69.3530705476563]
グラフインジェクションアタック(GIA)はグラフニューラルネットワーク(GNN)の実用的な攻撃シナリオである
グラフ修正攻撃 (GMA) と比較したところ, GIA は比較的高い柔軟性のため, GMA よりも明らかに有害であることがわかった。
我々は,GAAがホモフィリを維持することを強制する,新しい制約-ホモフィリな無意味性を導入し,そのインスタンス化のためにハーモニアス・アドバイサリアル・オブジェクト(HAO)を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:41:39Z) - Understanding AdamW through Proximal Methods and Scale-Freeness [57.47324825501137]
Adam は $ell$ regularizer Adam-$ell$ の一般化である。
AdamWは、Adam-$ell$の更新ルールからAdam-$ell$の勾配を分離する。
我々はAdamWがAdam-$ell$よりも有利であることを示し、ネットワークの勾配が複数のスケールを示すことを期待する度合いを示す。
論文 参考訳(メタデータ) (2022-01-31T21:00:55Z) - A Novel Convergence Analysis for Algorithms of the Adam Family [105.22760323075008]
本稿ではAdam, AMSGrad, AdaboundなどのAdamスタイルの手法群に対する収束の一般的な証明を示す。
我々の分析は非常に単純で汎用的なので、より広範な非構成最適化問題の族を解くための収束を確立するために利用することができる。
論文 参考訳(メタデータ) (2021-12-07T02:47:58Z) - Adam$^+$: A Stochastic Method with Adaptive Variance Reduction [56.051001950733315]
Adamはディープラーニングアプリケーションに広く使われている最適化手法である。
我々はAdam$+$(Adam-plusと発音する)という新しい方法を提案する。
画像分類,言語モデリング,自動音声認識など,さまざまなディープラーニングタスクに関する実証研究により,Adam$+$がAdamを著しく上回ることを示した。
論文 参考訳(メタデータ) (2020-11-24T09:28:53Z) - AdaSGD: Bridging the gap between SGD and Adam [14.886598905466604]
我々はSGDとAdamのパフォーマンスの潜在的な違いを同定する。
我々は、AdaSGDがSGD AdamとSGD非降下の両方の利点を組み合わせていることを実証する。
論文 参考訳(メタデータ) (2020-06-30T05:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。