論文の概要: What needs to go right for an induction head? A mechanistic study of in-context learning circuits and their formation
- arxiv url: http://arxiv.org/abs/2404.07129v1
- Date: Wed, 10 Apr 2024 16:07:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 13:51:53.760674
- Title: What needs to go right for an induction head? A mechanistic study of in-context learning circuits and their formation
- Title(参考訳): 誘導頭部に何が必要か : 文脈内学習回路とその構成に関する力学的研究
- Authors: Aaditya K. Singh, Ted Moskovitz, Felix Hill, Stephanie C. Y. Chan, Andrew M. Saxe,
- Abstract要約: インコンテキスト学習はトランスフォーマーモデルにおける強力な創発的能力である。
誘導ヘッド(IH)は、文脈内学習において重要な回路要素である。
合成データを用いたトレーニングにより, 制御された環境下でのIHの出現動態について検討した。
- 参考スコア(独自算出の注目度): 26.108239464092204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In-context learning is a powerful emergent ability in transformer models. Prior work in mechanistic interpretability has identified a circuit element that may be critical for in-context learning -- the induction head (IH), which performs a match-and-copy operation. During training of large transformers on natural language data, IHs emerge around the same time as a notable phase change in the loss. Despite the robust evidence for IHs and this interesting coincidence with the phase change, relatively little is known about the diversity and emergence dynamics of IHs. Why is there more than one IH, and how are they dependent on each other? Why do IHs appear all of a sudden, and what are the subcircuits that enable them to emerge? We answer these questions by studying IH emergence dynamics in a controlled setting by training on synthetic data. In doing so, we develop and share a novel optogenetics-inspired causal framework for modifying activations throughout training. Using this framework, we delineate the diverse and additive nature of IHs. By clamping subsets of activations throughout training, we then identify three underlying subcircuits that interact to drive IH formation, yielding the phase change. Furthermore, these subcircuits shed light on data-dependent properties of formation, such as phase change timing, already showing the promise of this more in-depth understanding of subcircuits that need to "go right" for an induction head.
- Abstract(参考訳): インコンテキスト学習はトランスフォーマーモデルにおける強力な創発的能力である。
機械的解釈可能性に関する以前の研究は、文脈内学習において重要な回路要素である帰納的ヘッド(IH)を特定し、マッチ・アンド・コピー操作を行う。
自然言語データに対する大きなトランスフォーマーのトレーニング中、IHは損失の顕著な位相変化と同時期に出現する。
IHsの堅牢な証拠と相変化とのこの興味深い一致にもかかわらず、IHsの多様性と出現ダイナミクスについてはあまり知られていない。
なぜ複数のIHがあり、どのように互いに依存するのか?
なぜ突然IHが出現し、それを可能にするサブサーキットは何か?
合成データのトレーニングによって制御された環境でIHの出現動態を研究することにより,これらの疑問に答える。
そこで我々は、学習を通してアクティベーションを変更するための、新しいオプトジェネティクスにインスパイアされた因果関係の枠組みを開発し、共有する。
このフレームワークを用いて、IHの多様で付加的な性質を概説する。
トレーニングを通して活性化のサブセットをクランプすることで、IH形成を促進するために相互作用する3つのサブ回路を同定し、位相変化をもたらす。
さらに、これらのサブ回路は、位相変化のタイミングのようなデータ依存的な形成特性に光を当て、誘導ヘッドのために「右に進む」必要があるサブ回路のより深い理解の可能性を既に示している。
関連論文リスト
- Exploring the Benefit of Activation Sparsity in Pre-training [117.25661020250658]
プレトレーニング中に活性化特性がどう変化するかを検討した。
本稿では,Sparse-Dense Learning (SSD)を提案する。
SSDは同じモデルサイズで同等のパフォーマンスを実現し、事前トレーニングコストを削減する。
論文 参考訳(メタデータ) (2024-10-04T13:53:33Z) - Continual Diffuser (CoD): Mastering Continual Offline Reinforcement Learning with Experience Rehearsal [54.93261535899478]
強化学習のロボット制御のような現実世界の応用では、タスクが変化し、新しいタスクが順次発生する。
この状況は、タスクの変更に適応し、獲得した知識を保持するエージェントを訓練する上で、可塑性-安定トレードオフという新たな課題を生じさせる。
本研究では,連続拡散器(Continuous diffuser,CoD)と呼ばれるリハーサルに基づく連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-09-04T08:21:47Z) - Two-Phase Dynamics of Interactions Explains the Starting Point of a DNN Learning Over-Fitted Features [68.3512123520931]
深層ニューラルネットワーク(DNN)学習相互作用のダイナミクスについて検討する。
本稿では,DNNが2段階の相互作用を学習していることを明らかにする。
第1相は主に中位と高位の相互作用を罰し、第2相は徐々に増加する順序の相互作用を学習する。
論文 参考訳(メタデータ) (2024-05-16T17:13:25Z) - Voltage-Driven Breakdown of Electronic Order [0.44241702149260353]
モット絶縁体の非熱的破壊は、技術的な関連性に対する理論的および実験的関心のトピックである。
最近の実験では、負の微分コンダクタンスと格子変形を伴う鋭い非平衡絶縁体-金属間遷移が発見された。
本稿では, 金属貯水池に結合した鎖上のスピンレスフェルミオンと相互作用するパラダイムモデルにおいて, 化学圧力によって分解が引き起こされるシナリオについて検討する。
論文 参考訳(メタデータ) (2024-05-15T17:05:08Z) - Linear Oscillation: A Novel Activation Function for Vision Transformer [0.0]
線形振動(LoC)活性化関数を$f(x) = x times sin(alpha x + beta)$と定義する。
非線型性を主に導入する従来の活性化関数とは違い、LoCは線形軌道と振動偏差をシームレスにブレンドする。
私たちの経験的研究によると、多様なニューラルネットワークに組み込むと、LoCアクティベーション機能は、ReLUやSigmoidといった確立したアーキテクチャよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-08-25T20:59:51Z) - Latent State Models of Training Dynamics [51.88132043461152]
異なるランダムなシードでモデルをトレーニングし、トレーニングを通じてさまざまなメトリクスを計算します。
次に、結果のメトリクス列に隠れマルコフモデル(HMM)を適合させる。
我々はHMM表現を用いて相転移を研究し、収束を遅くする潜伏状態(detour state)を特定する。
論文 参考訳(メタデータ) (2023-08-18T13:20:08Z) - The Information Pathways Hypothesis: Transformers are Dynamic
Self-Ensembles [24.52890377175555]
本研究では,学習中の自己注意の記憶と計算コストを4~8倍に削減できる変圧器の汎用的学習戦略を提案する。
本研究では,ネットワーク内のサブサンプリング経路からサブモデルのアンサンブルを生成できることを示す。
論文 参考訳(メタデータ) (2023-06-02T17:28:46Z) - Quantum gas-enabled direct mapping of active current density in
percolating networks of nanowires [0.0]
本稿ではBose-Einstein顕微鏡を導入し,2次元材料におけるアクティブ電流流の画像化の長年の問題に対処する。
既存の熱画像法と組み合わせることで、電気的特性と熱的特性の仮定が不要になることを示す。
論文 参考訳(メタデータ) (2023-03-21T17:23:17Z) - Transformers learn in-context by gradient descent [58.24152335931036]
自己回帰目標におけるトランスフォーマーの訓練は、勾配に基づくメタラーニングの定式化と密接に関連している。
トレーニングされたトランスフォーマーがメザ最適化器となる方法,すなわち,前方通過における勾配降下によるモデル学習方法を示す。
論文 参考訳(メタデータ) (2022-12-15T09:21:21Z) - Effects of Parameter Norm Growth During Transformer Training: Inductive
Bias from Gradient Descent [44.44543743806831]
本研究では, トレーニング中にこれらの標準間に飽和しながら, 変圧器パラメータが大きくなる傾向について検討した。
パラメータが大きくなるにつれて、ネットワークは飽和活性化関数を持つ離散化されたネットワークに近似することが証明される。
以上の結果から,飽和はNLPに対する特定の関心のGDに暗黙的な誘導バイアスの新たな特徴であることが示唆された。
論文 参考訳(メタデータ) (2020-10-19T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。