論文の概要: Understanding Prompt Tuning and In-Context Learning via Meta-Learning
- arxiv url: http://arxiv.org/abs/2505.17010v1
- Date: Thu, 22 May 2025 17:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.5563
- Title: Understanding Prompt Tuning and In-Context Learning via Meta-Learning
- Title(参考訳): メタラーニングによるプロンプトチューニングとインコンテキスト学習の理解
- Authors: Tim Genewein, Kevin Wenliang Li, Jordi Grau-Moya, Anian Ruoss, Laurent Orseau, Marcus Hutter,
- Abstract要約: 本稿では,ベイズ的視点から最適なプロンプトの理解について論じる。
メタ学習ニューラルネットワークが事前学習分布に対してベイズ予測器としてどのように振る舞うかを示す。
また、トークンアルファベット以外の実数値ベクトル列であるソフトプレフィックスが、訓練されたネットワークや訓練されていないネットワークに対して非常に効果的なプロンプトをもたらすことも確認した。
- 参考スコア(独自算出の注目度): 21.10309721669349
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompting is one of the main ways to adapt a pretrained model to target tasks. Besides manually constructing prompts, many prompt optimization methods have been proposed in the literature. Method development is mainly empirically driven, with less emphasis on a conceptual understanding of prompting. In this paper we discuss how optimal prompting can be understood through a Bayesian view, which also implies some fundamental limitations of prompting that can only be overcome by tuning weights. The paper explains in detail how meta-trained neural networks behave as Bayesian predictors over the pretraining distribution, whose hallmark feature is rapid in-context adaptation. Optimal prompting can be studied formally as conditioning these Bayesian predictors, yielding criteria for target tasks where optimal prompting is and is not possible. We support the theory with educational experiments on LSTMs and Transformers, where we compare different versions of prefix-tuning and different weight-tuning methods. We also confirm that soft prefixes, which are sequences of real-valued vectors outside the token alphabet, can lead to very effective prompts for trained and even untrained networks by manipulating activations in ways that are not achievable by hard tokens. This adds an important mechanistic aspect beyond the conceptual Bayesian theory.
- Abstract(参考訳): プロンプティングは、目標とするタスクに事前訓練されたモデルを適用する主要な方法の1つである。
手動でプロンプトを構築することに加えて、文献で多くのプロンプト最適化手法が提案されている。
メソッド開発は主に経験的駆動であり、プロンプトの概念的理解に重点を置いていない。
本稿では,重みを調整することによってのみ克服できるプロンプトの基本的な限界を示唆するベイズ的視点を通じて,最適なプロンプトがいかに理解できるかを論じる。
この論文は、メタ学習ニューラルネットワークが事前学習分布に対してベイズ予測器としてどのように振る舞うかを詳細に説明している。
最適プロンプトは、これらのベイズ予測器を条件づけて、最適プロンプトが最適で不可能な目標タスクの基準を与えるものとして、正式に研究することができる。
我々はLSTMとトランスフォーマーの教育実験でこの理論を支援し、プレフィックスチューニングの異なるバージョンと異なるウェイトチューニング法を比較した。
また、トークンアルファベット以外の実数値ベクトル列である軟式接頭辞は、ハードトークンによって達成できない方法でアクティベーションを操作することにより、訓練されたネットワークや訓練されていないネットワークに対して非常に効果的なプロンプトをもたらす可能性があることを確認した。
これは概念ベイズ理論を超えた重要な力学的な側面を付け加える。
関連論文リスト
- CAPrompt: Cyclic Prompt Aggregation for Pre-Trained Model Based Class Incremental Learning [12.249938312431993]
本稿では,タスクID予測への依存性を排除するために,新しいCAPromptアグリゲーション法を提案する。
凹凸条件下では、集約プロンプトは単一のタスク固有のプロンプトを選択するよりも低いエラーを達成する。
提案したCAPromptは最先端手法を2%-3%上回る性能を示した。
論文 参考訳(メタデータ) (2024-12-12T04:34:28Z) - Revisiting Prompt Pretraining of Vision-Language Models [13.888505919946578]
本稿では、RPP(Revisiting Prompt Pretraining)と呼ばれる一般的なフレームワークを提案する。
RPPは、フィッティングと一般化能力の改善を、迅速な構造と迅速な監督という2つの側面から目標としている。
また,事前訓練されたコントラスト言語画像事前学習(CLIP)教師モデルによって提供されるゼロショット確率予測から得られたソフトラベルを利用する。
論文 参考訳(メタデータ) (2024-09-10T02:36:13Z) - Hard Prompts Made Interpretable: Sparse Entropy Regularization for Prompt Tuning with RL [29.01858866450715]
ソフトQ-ラーニングを利用した最適なプロンプトを見つけることを目的としたRLPromptを提案する。
結果は有望な結果を示す一方で,プロンプトが不自然に現れることがしばしばあり,その解釈可能性を妨げることが確認されている。
この制限をスパルス・ツァリスエントロピー正規化(英語版)を用いて解決する。
論文 参考訳(メタデータ) (2024-07-20T03:10:19Z) - When Do Prompting and Prefix-Tuning Work? A Theory of Capabilities and Limitations [96.66139069125263]
コンテキストベースのファインチューニングメソッドは、パラメータのごく一部でフルファインチューニングのパフォーマンスにマッチすることが多いため、人気を集めている。
連続埋め込み空間は離散トークン空間よりも表現力が高いが,ソフトプロンプトやプレフィックスチューニングは完全な微調整よりも表現力が低い可能性が示唆された。
これは、プロンプト、文脈内学習、ソフトプロンプト、プレフィックスチューニングといったテクニックは、事前訓練されたモデルに存在するスキルを効果的に引き出すことができるが、新しい注意パターンを必要とする新しいタスクを学習することはできないことを示唆している。
論文 参考訳(メタデータ) (2023-10-30T16:19:34Z) - Gradient-Regulated Meta-Prompt Learning for Generalizable
Vision-Language Models [137.74524357614285]
グラディエント・レグルアテッドメタプロンプト学習フレームワークについて紹介する。
パラメーターとデータ -- 効率的な方法で下流タスクにモデルを適応させるのに役立つ。
GRAMはモデルに依存しない方法で様々なプロンプトチューニング手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-03-12T05:03:37Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。