論文の概要: Black-box Prompt Tuning with Subspace Learning
- arxiv url: http://arxiv.org/abs/2305.03518v1
- Date: Thu, 4 May 2023 01:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 13:51:34.564797
- Title: Black-box Prompt Tuning with Subspace Learning
- Title(参考訳): サブスペース学習によるブラックボックスプロンプトチューニング
- Authors: Yuanhang Zheng, Zhixing Tan, Peng Li and Yang Liu
- Abstract要約: ブラックボックスプロンプトチューニングは、低次元部分空間におけるプロンプトの学習にデリバティブフリー最適化アルゴリズムを使用する。
最近の研究によると、ブラックボックス・プロンプト・チューニングはタスクとLarge Language Models (LLMs)間の汎用性を欠いている。
我々は,サブスペース学習(BSL)を用いたブラックボックスプロンプトチューニングを提案し,ブラックボックスプロンプトチューニングの汎用性を向上させる。
- 参考スコア(独自算出の注目度): 20.192959398545018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box prompt tuning uses derivative-free optimization algorithms to learn
prompts in low-dimensional subspaces instead of back-propagating through the
network of Large Language Models (LLMs). Recent studies have found that
black-box prompt tuning lacks versatility across tasks and LLMs, which we
believe is related to the inappropriate choice of subspaces. In this paper, we
propose Black-box prompt tuning with Subspace Learning (BSL) to improve the
versatility of black-box prompt tuning. Based on the assumption that nearly
optimal prompts for similar tasks exist in a common subspace, we propose
identifying such subspaces by meta-learning on a set of similar source tasks.
Therefore, for a target task that shares similarities with source tasks, we
guarantee that optimizing in the subspace can find a prompt that performs well
on the target task. Experiments confirm that our BSL framework consistently
achieves competitive performance regardless of downstream tasks and LLMs.
- Abstract(参考訳): black-box prompt tuningはデリバティブフリーな最適化アルゴリズムを使用して、大言語モデル(llm)のネットワークをバックプロパゲーションするのではなく、低次元部分空間でプロンプトを学習する。
近年の研究では、ブラックボックスのプロンプトチューニングはタスクやLLM間の汎用性を欠いていることが判明している。
本稿では,ブラックボックスプロンプトチューニングの汎用性を向上させるために,サブスペース学習(bsl)を用いたブラックボックスプロンプトチューニングを提案する。
類似するタスクに対するほぼ最適プロンプトが共通の部分空間に存在するという仮定に基づいて、類似したソースタスクのセットでメタラーニングすることで、そのような部分空間を識別することを提案する。
したがって、ソースタスクと類似性を共有するターゲットタスクに対して、サブスペースの最適化は、ターゲットタスクでよく動作するプロンプトを見つけることができることを保証します。
実験により,我々のBSLフレームワークは,下流タスクやLLMに関わらず,常に競争性能を達成できることを確認した。
関連論文リスト
- Relative Preference Optimization: Enhancing LLM Alignment through
Contrasting Responses across Identical and Diverse Prompts [100.76940486636121]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文で提示された結果を再現するために必要なPyTorchコードは、GitHubで公開されている。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - Survival of the Most Influential Prompts: Efficient Black-Box Prompt
Search via Clustering and Pruning [77.61565726647784]
本稿では,まず検索空間をクラスタ化してプルークするブラックボックス探索手法を提案する。
検索空間設計と最適化は,ブラックボックス・プロンプトに基づく学習の有用性と効率性を両立させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2023-10-19T14:25:06Z) - Distribution-Aware Prompt Tuning for Vision-Language Models [20.02599087680773]
プロンプトチューニングの鍵は、モデルパラメータを固定した学習可能なベクトルを介して、2つのモード間の特徴空間アライメントである。
この観測に触発されて、視覚言語モデルのための分布認識プロンプトチューニング(DAPT)を提案する。
11のベンチマークデータセットに対する実験により,本手法が一般化可能性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-09-06T23:49:11Z) - Make Prompt-based Black-Box Tuning Colorful: Boosting Model Generalization from Three Orthogonal Perspectives [28.138689389803034]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクのパワーを増大させている。
勾配や隠れ表現にアクセスせずにタスク固有のプロンプトを最適化することで、この問題に対処するためにブラックボックスチューニングが提案されている。
BBT-RGBは,ブラックボックス最適化の効率化と性能向上のための,単純かつ補完的な手法のスイートである。
論文 参考訳(メタデータ) (2023-05-14T07:33:59Z) - PromptBoosting: Black-Box Text Classification with Ten Forward Passes [61.38341243907045]
PromptBoostingは、LMのパラメータ、勾配、隠された表現にアクセスすることなく、ニューラルネットワークモデル(LM)からテキスト分類器を構築するためのクエリ効率のよい手順である。
実験によると、PromptBoostingは複数のブラックボックスのいくつかのショット分類タスクで最先端のパフォーマンスを達成し、既存のブラックボックスメソッドよりも10倍速くトレーニングしながら、少数ショットと標準学習のパラダイムの両方で完全な微調整をマッチまたは上回っている。
論文 参考訳(メタデータ) (2022-12-19T06:04:54Z) - BBTv2: Pure Black-Box Optimization Can Be Comparable to Gradient Descent
for Few-Shot Learning [83.26610968655815]
Black-Box Tuningは、言語モデルの入力に先立って、連続的なプロンプトトークンを最適化するためのデリバティブフリーなアプローチである。
BBTv2は、言語モデルをグラデーションベースの最適化に匹敵する結果を得るために駆動する、純粋なブラックボックス最適化手法である。
論文 参考訳(メタデータ) (2022-05-23T11:10:19Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - Exploring Low-dimensional Intrinsic Task Subspace via Prompt Tuning [70.76016793057283]
本研究では,事前学習型言語モデル(PLM)が普遍表現を学習し,異なる幅広いNLPタスクに効果的に適用する方法について検討する。
実験では,100個のランダムタスクを持つ5次元部分空間において,5つの自由パラメータをチューニングするだけで,全プロンプトチューニング性能の87%と65%を回復できることがわかった。
論文 参考訳(メタデータ) (2021-10-15T05:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。