論文の概要: STT: Soft Template Tuning for Few-Shot Adaptation
- arxiv url: http://arxiv.org/abs/2207.08408v1
- Date: Mon, 18 Jul 2022 07:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 14:35:03.721916
- Title: STT: Soft Template Tuning for Few-Shot Adaptation
- Title(参考訳): STT:Few-Shot Adaptationのためのソフトテンプレートチューニング
- Authors: Ping Yu, Wei Wang, Chunyuan Li, Ruiyi Zhang, Zhanpeng Jin, Changyou
Chen
- Abstract要約: 我々は、Soft Template Tuning (STT)と呼ばれる新しいプロンプトチューニングフレームワークを提案する。
STTは手動と自動プロンプトを組み合わせて、下流の分類タスクをマスキング言語モデリングタスクとして扱う。
さらに、感情分類タスクにおいて、時間とリソースを消費する微調整方法よりも優れています。
- 参考スコア(独自算出の注目度): 72.46535261444151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt tuning has been an extremely effective tool to adapt a pre-trained
model to downstream tasks. However, standard prompt-based methods mainly
consider the case of sufficient data of downstream tasks. It is still unclear
whether the advantage can be transferred to the few-shot regime, where only
limited data are available for each downstream task. Although some works have
demonstrated the potential of prompt-tuning under the few-shot setting, the
main stream methods via searching discrete prompts or tuning soft prompts with
limited data are still very challenging. Through extensive empirical studies,
we find that there is still a gap between prompt tuning and fully fine-tuning
for few-shot learning. To bridge the gap, we propose a new prompt-tuning
framework, called Soft Template Tuning (STT). STT combines manual and auto
prompts, and treats downstream classification tasks as a masked language
modeling task. Comprehensive evaluation on different settings suggests STT can
close the gap between fine-tuning and prompt-based methods without introducing
additional parameters. Significantly, it can even outperform the time- and
resource-consuming fine-tuning method on sentiment classification tasks.
- Abstract(参考訳): プロンプトチューニングは、トレーニング済みのモデルを下流のタスクに適応するための非常に効果的なツールです。
しかし、標準的なプロンプトベースの手法は主に下流タスクの十分なデータを扱う。
ダウンストリームの各タスクで限られたデータしか利用できない、数ショットのレギュレーションにその利点が転送できるかどうかはまだ不明だ。
数ショット設定下でのプロンプトチューニングの可能性を示す研究もあるが、離散的なプロンプトの検索や、限られたデータによるソフトプロンプトのチューニングによるメインストリームメソッドは、依然として非常に難しい。
広範な経験的研究を通じて、短時間のチューニングと完全微調整にはまだギャップがあることが分かりました。
このギャップを埋めるため、我々はSoft Template Tuning (STT)と呼ばれる新しいプロンプトチューニングフレームワークを提案する。
STTは手動と自動プロンプトを組み合わせて、下流の分類タスクをマスキング言語モデリングタスクとして扱う。
異なる設定に対する総合的な評価は、STTが追加パラメータを導入することなく、微調整とプロンプトベースのメソッド間のギャップを埋めることができることを示唆している。
さらに、感情分類タスクにおいて、時間と資源を消費する微調整方法よりも優れています。
関連論文リスト
- PTP: Boosting Stability and Performance of Prompt Tuning with
Perturbation-Based Regularizer [94.23904400441957]
損失景観を平滑化できる摂動型正規化器を即時チューニングに導入する。
我々は乱数ノイズベースと逆数ベースを含む2種類の摂動型正規化器を設計する。
我々の新しいアルゴリズムは,SuperGLUEベンチマークとFewGLUEベンチマークでそれぞれ1.94%,2.34%の最先端のプロンプトチューニング手法を改善した。
論文 参考訳(メタデータ) (2023-05-03T20:30:51Z) - Multitask Prompt Tuning Enables Parameter-Efficient Transfer Learning [43.639430661322585]
マルチタスク・プロンプト・チューニング(MPT)を提案する。
MPTは複数のタスク固有のソースプロンプトから知識を抽出することで単一の転送可能なプロンプトを学習する。
次に、この共有プロンプトに対する乗算的低ランク更新を学習し、各下流ターゲットタスクに効率よく適応する。
論文 参考訳(メタデータ) (2023-03-06T03:25:59Z) - SPT: Semi-Parametric Prompt Tuning for Multitask Prompted Learning [28.29889045842277]
マルチタスクによる学習は,さまざまなタスクセットを一度に一般化する上で有効だ。
マルチタスク学習のための半パラメトリックなプロンプトチューニング手法であるSPTを提案する。
論文 参考訳(メタデータ) (2022-12-21T11:18:09Z) - Late Prompt Tuning: A Late Prompt Could Be Better Than Many Prompts [97.20933523766182]
プロンプトチューニングは、事前訓練モデル(PTM)を利用するためのパラメータ効率チューニング(PETuning)手法である
我々は、入力層やすべての層の代わりに遅延プロンプトをPTMの中間層に挿入するLatlas Prompt Tuning()を提案する。
フルデータおよび少数ショットの両方のシナリオで、フルモデルチューニングや他のPETuningメソッドと競合する性能を実現できることを示す。
論文 参考訳(メタデータ) (2022-10-20T14:23:52Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - PPT: Pre-trained Prompt Tuning for Few-shot Learning [47.05554619258627]
事前学習された言語モデル(PLM)のプロンプトは、事前学習タスクと様々な下流タスクのギャップを埋めることで、顕著な性能を示している。
これらの手法のうち、PLMを凍結し、ソフトプロンプトのみをチューニングするプロンプトチューニングは、大規模PLMを下流タスクに適用するための効率的かつ効果的なソリューションを提供する。
本研究では,下流データで十分である場合,従来のフルモデルファインチューニングと相容れない性能が得られた。
論文 参考訳(メタデータ) (2021-09-09T15:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。