論文の概要: When Do Prompting and Prefix-Tuning Work? A Theory of Capabilities and
Limitations
- arxiv url: http://arxiv.org/abs/2310.19698v1
- Date: Mon, 30 Oct 2023 16:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 19:03:22.813452
- Title: When Do Prompting and Prefix-Tuning Work? A Theory of Capabilities and
Limitations
- Title(参考訳): プロンプティングとプリフィックスチューニングはいつ行われるのか?
能力と限界の理論
- Authors: Aleksandar Petrov, Philip H.S. Torr, Adel Bibi
- Abstract要約: コンテキストベースのファインチューニングメソッドは、パラメータのごく一部でフルファインチューニングのパフォーマンスにマッチすることが多いため、人気を集めている。
連続埋め込み空間は離散トークン空間よりも表現力が高いにもかかわらず、ソフトプロンプティングとプレフィックスチューニングは完全な微調整よりも厳密に表現力に乏しいことを示す。
- 参考スコア(独自算出の注目度): 105.59562522323274
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Context-based fine-tuning methods, including prompting, in-context learning,
soft prompting (also known as prompt tuning), and prefix-tuning, have gained
popularity due to their ability to often match the performance of full
fine-tuning with a fraction of the parameters. Despite their empirical
successes, there is little theoretical understanding of how these techniques
influence the internal computation of the model and their expressiveness
limitations. We show that despite the continuous embedding space being more
expressive than the discrete token space, soft-prompting and prefix-tuning are
strictly less expressive than full fine-tuning, even with the same number of
learnable parameters. Concretely, context-based fine-tuning cannot change the
relative attention pattern over the content and can only bias the outputs of an
attention layer in a fixed direction. This suggests that while techniques like
prompting, in-context learning, soft prompting, and prefix-tuning can
effectively elicit skills present in the pretrained model, they cannot learn
novel tasks that require new attention patterns.
- Abstract(参考訳): 文脈に基づく微調整手法は、プロンプト、文脈内学習、ソフト・プロンプト(プロンプト・チューニング)、プレフィックス・チューニング(プレフィックス・チューニング)などがあり、パラメータのごく一部で完全な微調整の性能とよく一致するため人気がある。
実験的な成功にもかかわらず、これらの手法がモデルの内部計算と表現力の限界にどのように影響するかについての理論的理解はほとんどない。
連続埋め込み空間は離散トークン空間よりも表現力が高いが,ソフトプロンプトやプレフィックスチューニングは,学習可能なパラメータの数が同じであっても,完全な微調整よりも厳密に表現力に乏しいことを示す。
具体的には、コンテキストベースの微調整はコンテンツ上の相対的注意パターンを変えることができず、注意層の出力を一定の方向に偏らせるだけである。
これは、プロンプト、インコンテキスト学習、ソフトプロンプト、プレフィックスチューニングといったテクニックは、事前訓練されたモデルに存在するスキルを効果的に誘発することができるが、新しい注意パターンを必要とする新しいタスクを学べないことを示唆している。
関連論文リスト
- On the Loss of Context-awareness in General Instruction Fine-tuning [101.03941308894191]
教師付き微調整後の文脈認識の喪失について検討した。
性能低下は,会話指導の微調整中に学んだ異なる役割に対する偏見と関連していることがわかった。
一般命令微調整データセットから文脈依存例を識別する指標を提案する。
論文 参考訳(メタデータ) (2024-11-05T00:16:01Z) - Eliciting Textual Descriptions from Representations of Continuous Prompts [11.489611613744724]
本稿では,モデル推論における表現からテキスト記述を抽出する連続的プロンプトの解釈手法を提案する。
本稿では,タスク性能が向上するにつれて,タスク記述の正確さが向上することを示す。
InSPEcTは、望ましくないプロパティを継続的なプロンプトでデバッグし、開発者がそれを緩和する方法を通知するために利用することができる。
論文 参考訳(メタデータ) (2024-10-15T14:46:11Z) - Understanding Catastrophic Forgetting in Language Models via Implicit Inference [12.09165658395643]
微調整データ配信におけるタスクの性能向上は、他のタスクの能力の犠牲となることを実証する。
そこで本研究では,タスクを細調整分布から人工的に遠ざかるコンジュゲート・プロンプティングを提案する。
論文 参考訳(メタデータ) (2023-09-18T19:28:48Z) - On the Role of Attention in Prompt-tuning [90.97555030446563]
本研究では,一層アテンションアーキテクチャのプロンプトチューニングについて検討し,文脈混合モデルについて検討する。
ソフトマックス・プロンプト・アテンションは, ソフトマックス・自己アテンションやリニア・プロンプト・アテンションよりも明らかに表現力が高いことを示す。
また、実際のデータセットに関する理論的洞察を検証し、モデルが文脈関連情報にどのように対応できるかを示す実験も提供する。
論文 参考訳(メタデータ) (2023-06-06T06:23:38Z) - Gradient-Regulated Meta-Prompt Learning for Generalizable
Vision-Language Models [137.74524357614285]
グラディエント・レグルアテッドメタプロンプト学習フレームワークについて紹介する。
パラメーターとデータ -- 効率的な方法で下流タスクにモデルを適応させるのに役立つ。
GRAMはモデルに依存しない方法で様々なプロンプトチューニング手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-03-12T05:03:37Z) - Generative Prompt Tuning for Relation Classification [21.027631157115135]
本稿では,関係分類を埋め込み問題として再構成する新しい生成的プロンプトチューニング手法を提案する。
さらに,エンティティ誘導型復号化と識別的関係スコアリングを設計し,推論中の関係を効果的かつ効率的に生成・調整する。
論文 参考訳(メタデータ) (2022-10-22T12:40:23Z) - Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning [57.4036085386653]
文ペア分類タスクのプロンプトベースモデルでは,語彙重なりに基づく推論の一般的な落とし穴が依然として残っていることを示す。
そこで,プレトレーニングウェイトを保存する正規化を加えることは,この破壊的な微調整の傾向を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-09T10:10:29Z) - Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt
Verbalizer for Text Classification [68.3291372168167]
我々は、外部知識を言語化に取り入れることに集中し、知識に富んだプロンプトチューニング(KPT)を形成する。
我々は,外部知識ベース(KB)を用いてラベル語空間を拡張し,拡張されたラベル語空間で予測する前に PLM 自体で拡張されたラベル語空間を洗練する。
ゼロと少数ショットのテキスト分類タスクの実験は、知識のあるプロンプトチューニングの有効性を示す。
論文 参考訳(メタデータ) (2021-08-04T13:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。