論文の概要: Why Transformers Need Adam: A Hessian Perspective
- arxiv url: http://arxiv.org/abs/2402.16788v4
- Date: Mon, 21 Oct 2024 08:27:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:14:34.216667
- Title: Why Transformers Need Adam: A Hessian Perspective
- Title(参考訳): トランスフォーマーがAdamを必要とする理由:ヘッセンの視点
- Authors: Yushun Zhang, Congliang Chen, Tian Ding, Ziniu Li, Ruoyu Sun, Zhi-Quan Luo,
- Abstract要約: SGDはトランスフォーマーのかなりの差でAdamよりもパフォーマンスが悪いが、その理由は不明だ。
我々はヘッセンのレンズを通して説明する:トランスフォーマーは「異種」である
SGDは、ブロック間の不均一性を扱うことができないため、全てのブロックに1つの学習率を適用するため、性能が低下することがわかった。
- 参考スコア(独自算出の注目度): 24.43369071414824
- License:
- Abstract: SGD performs worse than Adam by a significant margin on Transformers, but the reason remains unclear. In this work, we provide an explanation through the lens of Hessian: (i) Transformers are "heterogeneous": the Hessian spectrum across parameter blocks vary dramatically, a phenomenon we call "block heterogeneity"; (ii) Heterogeneity hampers SGD: SGD performs worse than Adam on problems with block heterogeneity. To validate (i) and (ii), we check various Transformers, CNNs, MLPs, and quadratic problems, and find that SGD can perform on par with Adam on problems without block heterogeneity, but performs worse than Adam when the heterogeneity exists. Our initial theoretical analysis indicates that SGD performs worse because it applies one single learning rate to all blocks, which cannot handle the heterogeneity among blocks. This limitation could be ameliorated if we use coordinate-wise learning rates, as designed in Adam.
- Abstract(参考訳): SGDはトランスフォーマーのかなりの差でAdamよりもパフォーマンスが悪いが、その理由は不明だ。
本稿ではヘッセンのレンズを通して説明する。
(i)変圧器は「異質性」であり、パラメータブロックのヘッセンスペクトルは「異質性ブロック」と呼ばれる現象によって劇的に変化する。
(II)不均一ハマーSGD:SGDはブロック不均一性の問題でAdamよりも悪化する。
検証
(i)および
(i) 様々なトランスフォーマー, CNN, MLP, 二次問題を確認し, 異種性をブロックせずにSGDがAdamと同等に動作可能であるが, 異種性が存在する場合にはAdamよりも性能が劣ることがわかった。
我々の最初の理論的分析は、SGDはブロック間の不均一性を扱うことができない、すべてのブロックに1つの学習率を適用するため、より悪い性能を示すことを示している。
この制限は、Adam氏が設計したように、座標学習率を使用すると改善される可能性がある。
関連論文リスト
- Adam Exploits $\ell_\infty$-geometry of Loss Landscape via Coordinate-wise Adaptivity [6.270305440413688]
好ましくは $ell_infty$-geometry が SGD であるのに対して、Adam は影響を受けていない。
我々の実験は、好ましくは $ell_infty$-geometry が SGD であるのに対して、Adam が影響を受けていない場合、さらに悪化することを確認した。
論文 参考訳(メタデータ) (2024-10-10T17:58:53Z) - Alleviating Structural Distribution Shift in Graph Anomaly Detection [70.1022676681496]
グラフ異常検出(GAD)は二項分類の問題である。
ガロン神経ネットワーク(GNN)は、同胞性隣人からの正常の分類に有用である。
ヘテロ親水性隣人の影響を緩和し、不変にするための枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-25T13:07:34Z) - Noise Is Not the Main Factor Behind the Gap Between SGD and Adam on
Transformers, but Sign Descent Might Be [16.170888329408353]
大規模なバッチを持つAdamの挙動は、運動量を持つ符号降下と類似していることが示される。
我々は,SGDとAdamのパフォーマンスギャップにおいて,重み付けノイズと重み付けノイズが重要な要因ではないことを示す。
論文 参考訳(メタデータ) (2023-04-27T05:41:13Z) - Provable Adaptivity of Adam under Non-uniform Smoothness [79.25087082434975]
アダムは急速に収束するため、実用的な用途で広く採用されている。
アダムの既存の収束解析は、有界な滑らかさの仮定に依存する。
本稿では,ランダムにリシャッフルされたAdamの学習率の低下に伴う収束について検討する。
論文 参考訳(メタデータ) (2022-08-21T14:57:47Z) - Understanding and Improving Graph Injection Attack by Promoting
Unnoticeability [69.3530705476563]
グラフインジェクションアタック(GIA)はグラフニューラルネットワーク(GNN)の実用的な攻撃シナリオである
グラフ修正攻撃 (GMA) と比較したところ, GIA は比較的高い柔軟性のため, GMA よりも明らかに有害であることがわかった。
我々は,GAAがホモフィリを維持することを強制する,新しい制約-ホモフィリな無意味性を導入し,そのインスタンス化のためにハーモニアス・アドバイサリアル・オブジェクト(HAO)を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:41:39Z) - Understanding AdamW through Proximal Methods and Scale-Freeness [57.47324825501137]
Adam は $ell$ regularizer Adam-$ell$ の一般化である。
AdamWは、Adam-$ell$の更新ルールからAdam-$ell$の勾配を分離する。
我々はAdamWがAdam-$ell$よりも有利であることを示し、ネットワークの勾配が複数のスケールを示すことを期待する度合いを示す。
論文 参考訳(メタデータ) (2022-01-31T21:00:55Z) - A Novel Convergence Analysis for Algorithms of the Adam Family [105.22760323075008]
本稿ではAdam, AMSGrad, AdaboundなどのAdamスタイルの手法群に対する収束の一般的な証明を示す。
我々の分析は非常に単純で汎用的なので、より広範な非構成最適化問題の族を解くための収束を確立するために利用することができる。
論文 参考訳(メタデータ) (2021-12-07T02:47:58Z) - Adam$^+$: A Stochastic Method with Adaptive Variance Reduction [56.051001950733315]
Adamはディープラーニングアプリケーションに広く使われている最適化手法である。
我々はAdam$+$(Adam-plusと発音する)という新しい方法を提案する。
画像分類,言語モデリング,自動音声認識など,さまざまなディープラーニングタスクに関する実証研究により,Adam$+$がAdamを著しく上回ることを示した。
論文 参考訳(メタデータ) (2020-11-24T09:28:53Z) - AdaSGD: Bridging the gap between SGD and Adam [14.886598905466604]
我々はSGDとAdamのパフォーマンスの潜在的な違いを同定する。
我々は、AdaSGDがSGD AdamとSGD非降下の両方の利点を組み合わせていることを実証する。
論文 参考訳(メタデータ) (2020-06-30T05:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。