論文の概要: Understanding the Difficulty of Training Transformers
- arxiv url: http://arxiv.org/abs/2004.08249v3
- Date: Sun, 1 Oct 2023 18:34:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 21:48:56.344462
- Title: Understanding the Difficulty of Training Transformers
- Title(参考訳): 変圧器の訓練の難しさを理解する
- Authors: Liyuan Liu, Xiaodong Liu, Jianfeng Gao, Weizhu Chen, Jiawei Han
- Abstract要約: バランスの取れない勾配がトレーニングの不安定性の根本原因ではないことを示す。
我々は,早期段階のトレーニングを安定させ,後期段階においてその潜在能力を最大限に活用するためのアドミンを提案する。
- 参考スコア(独自算出の注目度): 120.99980924577787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have proved effective in many NLP tasks. However, their training
requires non-trivial efforts regarding designing cutting-edge optimizers and
learning rate schedulers carefully (e.g., conventional SGD fails to train
Transformers effectively). Our objective here is to understand $\textit{what
complicates Transformer training}$ from both empirical and theoretical
perspectives. Our analysis reveals that unbalanced gradients are not the root
cause of the instability of training. Instead, we identify an amplification
effect that influences training substantially -- for each layer in a
multi-layer Transformer model, heavy dependency on its residual branch makes
training unstable, since it amplifies small parameter perturbations (e.g.,
parameter updates) and results in significant disturbances in the model output.
Yet we observe that a light dependency limits the model potential and leads to
inferior trained models. Inspired by our analysis, we propose Admin
($\textbf{Ad}$aptive $\textbf{m}$odel $\textbf{in}$itialization) to stabilize
stabilize the early stage's training and unleash its full potential in the late
stage. Extensive experiments show that Admin is more stable, converges faster,
and leads to better performance. Implementations are released at:
https://github.com/LiyuanLucasLiu/Transforemr-Clinic.
- Abstract(参考訳): トランスフォーマーは多くのNLPタスクで有効であることが証明されている。
しかし、それらのトレーニングは、最先端のオプティマイザや学習率スケジューラを慎重に設計する(例えば、従来のSGDは、トランスフォーマーを効果的に訓練することができない)ための非自明な努力を必要とする。
ここでの目標は、経験的および理論的観点から、$\textit{what complicatedes transformer training}$を理解することです。
解析の結果,不均衡勾配がトレーニングの不安定性の根本原因ではないことが明らかとなった。
その代わり、多層トランスフォーマーモデルの各層でトレーニングに実質的に影響を及ぼす増幅効果を識別するが、その残留ブランチへの重い依存は、小さなパラメータ摂動(例えば、パラメータ更新)を増幅し、モデル出力に重大な障害をもたらすため、トレーニングを不安定にする。
しかし、光依存がモデルポテンシャルを制限し、劣った訓練されたモデルにつながることが観察される。
当社の分析に触発されて我々は,初期段階のトレーニングを安定させ,その潜在能力を後期に解き放つために,admin (\textbf{ad}$aptive $\textbf{m}$odel $\textbf{in}$itialization)を提案する。
大規模な実験により、Adminはより安定し、より早く収束し、より良いパフォーマンスをもたらすことが示されている。
実装は、https://github.com/LiyuanLucasLiu/Transforemr-Clinic.comでリリースされている。
関連論文リスト
- On the Role of Depth and Looping for In-Context Learning with Task Diversity [69.4145579827826]
多様なタスクを伴う線形回帰のための文脈内学習について検討する。
We show that multilayer Transformer is not robust to even distributional shifts as $O(e-L)$ in Wasserstein distance。
論文 参考訳(メタデータ) (2024-10-29T03:27:56Z) - Unveil Benign Overfitting for Transformer in Vision: Training Dynamics, Convergence, and Generalization [88.5582111768376]
本研究では, ソフトマックスを用いた自己保持層と, 勾配勾配下での完全連結層からなるトランスフォーマーの最適化について検討した。
この結果から,データモデルにおける信号対雑音比に基づいて,小さなテストエラー位相と大規模なテストエラー状態とを区別できるシャープ条件を確立した。
論文 参考訳(メタデータ) (2024-09-28T13:24:11Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - On Mesa-Optimization in Autoregressively Trained Transformers: Emergence and Capability [34.43255978863601]
いくつかの説では、トランスフォーマーはオートレアトレーニング中にmesa-optimizerを学習する。
データモーメントに関する強い仮定は、学習されたメザ最適化器が実行可能な十分な必要条件であることを示す。
論文 参考訳(メタデータ) (2024-05-27T05:41:06Z) - Dynamic Layer Tying for Parameter-Efficient Transformers [65.268245109828]
トレーニング中にレイヤを選択し、それらを結びつけるために強化学習を採用しています。
これにより、重量共有が容易になり、トレーニング可能なパラメータの数を減らし、効果的な正規化技術としても機能する。
特に、トレーニング中のメモリ消費は、従来のトレーニング方法よりも1桁も少ない。
論文 参考訳(メタデータ) (2024-01-23T14:53:20Z) - BranchNorm: Robustly Scaling Extremely Deep Transformers [55.92852268168816]
BranchNormはトレーニング期間に応じてTransformerの非残留ブランチを動的に再スケールする。
複数の翻訳タスクの実験結果から、BranchNormはトレーニングの安定性と収束性能のトレードオフを向上することが示された。
論文 参考訳(メタデータ) (2023-05-04T12:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。