論文の概要: Can Gradient Descent Simulate Prompting?
- arxiv url: http://arxiv.org/abs/2506.20989v1
- Date: Thu, 26 Jun 2025 04:06:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.969163
- Title: Can Gradient Descent Simulate Prompting?
- Title(参考訳): グラディエントDescentはプロンプティングをシミュレートできるのか?
- Authors: Eric Zhang, Leshem Choshen, Jacob Andreas,
- Abstract要約: 勾配は新しい情報に対する条件付けの効果を更新する。
勾配降下訓練は、引き起こされたモデルパフォーマンスのいくつか(時には全て)を回復する。
長文モデリングのための新しい道のりを示唆する。
- 参考スコア(独自算出の注目度): 56.60154660021178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are two primary ways of incorporating new information into a language model (LM): changing its prompt or changing its parameters, e.g. via fine-tuning. Parameter updates incur no long-term storage cost for model changes. However, for many model updates, prompting is significantly more effective: prompted models can generalize robustly from single examples and draw logical inferences that do not occur under standard fine-tuning. Can models be modified so that fine-tuning does emulate prompting? This paper describes a method for meta-training LMs such that gradient updates emulate the effects of conditioning on new information. Our approach uses tools from gradient-based meta-learning but uses an LM's own prompted predictions as targets, eliminating the need for ground-truth labels. Subsequent gradient descent training recovers some (and occasionally all) of prompted model performance -- showing improvement on the ``reversal curse'' tasks, and answering questions about text passages after a single gradient update. These results suggest that, with appropriate initialization, gradient descent can be surprisingly expressive. Our results suggest new avenues for long-context modeling and offer insight into the generalization capabilities of gradient-based learning.
- Abstract(参考訳): 新しい情報を言語モデル(LM)に組み込むには、プロンプトを変更したり、パラメータを変更したりする2つの主要な方法がある。
パラメータ更新は、モデル変更の長期ストレージコストを伴わない。
しかし、多くのモデル更新において、プロンプトははるかに効果的である: トリガーモデルは単一の例から堅牢に一般化し、標準的な微調整では起こらない論理的推論を引き出すことができる。
微調整がプロンプトをエミュレートするようにモデルを変更できますか?
本稿では,新たな情報に対する条件付けの効果を再現するメタトレーニング手法について述べる。
提案手法は,勾配に基づくメタラーニングのツールを用いるが,LM独自の予測をターゲットとして用いて,接地木ラベルの必要性を排除している。
その後の勾配降下トレーニングは、モデルパフォーマンスのトリガーの一部(時折すべて)を回復する -- `reversal curse'タスクの改善を示し、単一の勾配更新後にテキストパスに関する質問に答える。
これらの結果は、適切な初期化によって、勾配降下は驚くほど表現力が高いことを示唆している。
以上の結果から,長期コンテキストモデリングのための新たな手法が提案され,勾配学習の一般化能力に関する洞察が得られた。
関連論文リスト
- A mean teacher algorithm for unlearning of language models [5.384630221560811]
平均教師アルゴリズムは, 緩やかな自然勾配勾配の軌跡を近似することができることを示す。
遅いNGDは、勾配の消失に悩まされるが、この問題を回避するために、"負の対数非類似性(NLUL)"と呼ばれる新たな未学習の損失を導入する。
論文 参考訳(メタデータ) (2025-04-18T00:34:19Z) - ProSG: Using Prompt Synthetic Gradients to Alleviate Prompt Forgetting
of RNN-like Language Models [0.0]
本稿では,合成勾配による生成過程におけるモデル記憶プロンプトを記憶するアーキテクチャを提案する。
実験のためのデータセットを構築し,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-11-03T15:34:02Z) - Meta-Learning Online Adaptation of Language Models [88.8947656843812]
大規模言語モデルは、そのパラメータにおける驚くほど広い世界の知識を符号化する。
しかし、静的言語モデルの知識は時代遅れになり、モデルの効果的な「シェルフライフ」が制限される。
論文 参考訳(メタデータ) (2023-05-24T11:56:20Z) - Gradient-Regulated Meta-Prompt Learning for Generalizable
Vision-Language Models [137.74524357614285]
グラディエント・レグルアテッドメタプロンプト学習フレームワークについて紹介する。
パラメーターとデータ -- 効率的な方法で下流タスクにモデルを適応させるのに役立つ。
GRAMはモデルに依存しない方法で様々なプロンプトチューニング手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-03-12T05:03:37Z) - Meta-Learning Fast Weight Language Models [105.66999854213724]
我々は、動的評価の利点をより効率的に提供するニューラルネットワークコンポーネントであるFWL(Fast Weight Layers)を提示する。
FWLはトレーニング時に適用でき、モデルが勾配更新をうまく活用することを学ぶ。
論文 参考訳(メタデータ) (2022-12-05T18:37:09Z) - Feed-Forward On-Edge Fine-tuning Using Static Synthetic Gradient Modules [35.92284329679786]
組み込みデバイス上でのディープラーニングモデルのトレーニングは、一般的に避けられる。
本研究では,すべてのアクティベーションを格納するために必要なメモリ容量の削減に焦点をあてる。
提案手法は標準のバックプロパゲーションと同等の結果が得られた。
論文 参考訳(メタデータ) (2020-09-21T08:27:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。