論文の概要: SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer
- arxiv url: http://arxiv.org/abs/2110.07904v1
- Date: Fri, 15 Oct 2021 07:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:13:06.451384
- Title: SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer
- Title(参考訳): SPoT:ソフトプロンプト転送によるより良い凍結モデル適応
- Authors: Tu Vu, Brian Lester, Noah Constant, Rami Al-Rfou, Daniel Cer
- Abstract要約: 本稿では,SPoT: Soft Prompt Transferと呼ばれる新しいプロンプトベーストランスファー学習手法を提案する。
SPoTは多くのタスクでPromptTuningの性能を大幅に向上させることを示す。
また,26のNLPタスクと160のソース・ターゲットタスクを組み合わせたタスク転送性についても大規模に検討した。
- 参考スコア(独自算出の注目度): 7.2462572989580405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As pre-trained language models have gotten larger, there has been growing
interest in parameter-efficient methods to apply these models to downstream
tasks. Building on the PromptTuning approach of Lester et al. (2021), which
learns task-specific soft prompts to condition a frozen language model to
perform downstream tasks, we propose a novel prompt-based transfer learning
approach called SPoT: Soft Prompt Transfer. SPoT first learns a prompt on one
or more source tasks and then uses it to initialize the prompt for a target
task. We show that SPoT significantly boosts the performance of PromptTuning
across many tasks. More importantly, SPoT either matches or outperforms
ModelTuning, which fine-tunes the entire model on each individual task, across
all model sizes while being more parameter-efficient (up to 27,000x fewer
task-specific parameters). We further conduct a large-scale study on task
transferability with 26 NLP tasks and 160 combinations of source-target tasks,
and demonstrate that tasks can often benefit each other via prompt transfer.
Finally, we propose a simple yet efficient retrieval approach that interprets
task prompts as task embeddings to identify the similarity between tasks and
predict the most transferable source tasks for a given novel target task.
- Abstract(参考訳): 事前学習された言語モデルが大きくなるにつれて、これらのモデルを下流タスクに適用するパラメータ効率の高い方法への関心が高まっている。
タスク固有のソフトプロンプトを学習したlesterら(2021年)のプロンプトチューニングアプローチに基づいて,ダウンストリームタスクを実行するための凍結言語モデルを提案する。
SPoTはまず1つ以上のソースタスクのプロンプトを学び、それからターゲットタスクのプロンプトを初期化する。
SPoTは多くのタスクにおいてPromptTuningの性能を大幅に向上させることを示す。
さらに重要なのは、各タスクのモデル全体を、パラメータ効率が向上しながら、すべてのモデルサイズにわたって微調整する(最大27,000倍のタスク固有のパラメータ)。
さらに26のnlpタスクと160のソースターゲットタスクの組み合わせによるタスク転送可能性に関する大規模研究を行い,プロンプト転送によってタスクが互いに利益を享受できることを示す。
最後に,タスクをタスクの埋め込みとして解釈し,タスク間の類似性を識別し,与えられた新規な目標タスクに対して最も伝達可能なソースタスクを予測する,シンプルで効率的な検索手法を提案する。
関連論文リスト
- PECTP: Parameter-Efficient Cross-Task Prompts for Incremental Vision Transformer [76.39111896665585]
インクリメンタルラーニング(IL)は、シーケンシャルタスクの深いモデルを継続的に学習することを目的としている。
近年の大規模事前訓練モデル (PTM) は, 従来の試料を含まない実用ILにおいて, 即時的手法により優れた性能を発揮している。
論文 参考訳(メタデータ) (2024-07-04T10:37:58Z) - Exploring the Transferability of Visual Prompting for Multimodal Large Language Models [47.162575147632396]
Transferable Visual Prompting (TVP) は、異なるモデルに転送可能な視覚的プロンプトを生成するためのシンプルで効果的なアプローチである。
本稿では,既存の視覚的プロンプト手法のクロスモデル特徴劣化問題に対処し,学習したプロンプトの伝達可能性を高めるための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-04-17T09:39:07Z) - Bayesian Multi-Task Transfer Learning for Soft Prompt Tuning [44.43258626098661]
我々は、ソースタスクからトレーニングソースプロンプトを介して知識を抽出する場合、ソースタスク間の相関を考慮し、ターゲットタスクへのより良い転送を行う必要があると論じる。
本稿では,ソースタスク間のプロンプトの後方分布を扱うベイズ的手法を提案する。
ベイジアンマルチタスク変換学習手法は,多くの環境において最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-13T16:57:02Z) - TransPrompt v2: A Transferable Prompting Framework for Cross-task Text
Classification [37.824031151922604]
そこで本研究では,テキスト分類タスク間の数ショット学習を実現するための,トランスプロンプトv2を提案する。
類似したタスクを学習するために、メタラーナーを訓練するためにマルチタスクメタ知識獲得(MMA)手順を用いる。
遠隔タスクを学習するために、タスクタイプ記述をプロンプトに注入し、タイプ内およびタイプ間プロンプト埋め込みをキャプチャする。
論文 参考訳(メタデータ) (2023-08-29T04:16:57Z) - Multitask Prompt Tuning Enables Parameter-Efficient Transfer Learning [43.639430661322585]
マルチタスク・プロンプト・チューニング(MPT)を提案する。
MPTは複数のタスク固有のソースプロンプトから知識を抽出することで単一の転送可能なプロンプトを学習する。
次に、この共有プロンプトに対する乗算的低ランク更新を学習し、各下流ターゲットタスクに効率よく適応する。
論文 参考訳(メタデータ) (2023-03-06T03:25:59Z) - Multitask Vision-Language Prompt Tuning [103.5967011236282]
マルチタスク視覚言語プロンプトチューニング(MV)を提案する。
MVはクロスタスクの知識を視覚言語モデルの迅速なチューニングに取り入れている。
20個の視覚タスクの結果、提案手法は全ての単一タスクのベースライン・プロンプト・チューニング法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T18:41:44Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Attentional Mixtures of Soft Prompt Tuning for Parameter-efficient
Multi-task Knowledge Sharing [53.399742232323895]
ATTEMPTは、新しいモジュラー、マルチタスク、パラメータ効率の言語モデル(LM)チューニングアプローチである。
異なるタスク間で伝達される知識をソフトプロンプトの混合によって組み合わせ、元のLMをそのまま維持する。
パラメータ効率(例えば、微調整よりも1,600倍少ないパラメータを更新)であり、マルチタスク学習と柔軟な拡張を可能にする。
論文 参考訳(メタデータ) (2022-05-24T10:48:33Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Exploring and Predicting Transferability across NLP Tasks [115.6278033699853]
本研究では,33のNLPタスク間の伝達可能性について検討した。
以上の結果から,転帰学習は従来考えられていたよりも有益であることが示唆された。
また,特定の対象タスクに対して最も転送可能なソースタスクを予測するために使用できるタスク埋め込みも開発した。
論文 参考訳(メタデータ) (2020-05-02T09:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。