論文の概要: IDPG: An Instance-Dependent Prompt Generation Method
- arxiv url: http://arxiv.org/abs/2204.04497v1
- Date: Sat, 9 Apr 2022 15:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 14:34:27.520843
- Title: IDPG: An Instance-Dependent Prompt Generation Method
- Title(参考訳): IDPG:インスタンス依存型プロンプト生成手法
- Authors: Zhuofeng Wu, Sinong Wang, Jiatao Gu, Rui Hou, Yuxiao Dong, V.G.Vinod
Vydiswaran, Hao Ma
- Abstract要約: Prompt tuningは、モデルトレーニング段階で各入力インスタンスにタスク固有のプロンプトを追加する、新しい、効率的なNLP転送学習パラダイムである。
本稿では,各入力インスタンスのプロンプトを生成する条件付きプロンプト生成手法を提案する。
- 参考スコア(独自算出の注目度): 58.45110542003139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt tuning is a new, efficient NLP transfer learning paradigm that adds a
task-specific prompt in each input instance during the model training stage. It
freezes the pre-trained language model and only optimizes a few task-specific
prompts. In this paper, we propose a conditional prompt generation method to
generate prompts for each input instance, referred to as the Instance-Dependent
Prompt Generation (IDPG). Unlike traditional prompt tuning methods that use a
fixed prompt, IDPG introduces a lightweight and trainable component to generate
prompts based on each input sentence. Extensive experiments on ten natural
language understanding (NLU) tasks show that the proposed strategy consistently
outperforms various prompt tuning baselines and is on par with other efficient
transfer learning methods such as Compacter while tuning far fewer model
parameters.
- Abstract(参考訳): プロンプトチューニングは、モデルトレーニングステージ中に各入力インスタンスにタスク固有のプロンプトを追加する、新しい効率的なnlp転送学習パラダイムである。
トレーニング済みの言語モデルを凍結し、タスク固有のプロンプトのみを最適化する。
本稿では,インスタンス依存型プロンプト生成(IDPG)と呼ばれる入力インスタンス毎にプロンプトを生成する条件付きプロンプト生成手法を提案する。
固定プロンプトを使用する従来のプロンプトチューニングとは異なり、IDPGは軽量でトレーニング可能なコンポーネントを導入し、各入力文に基づいてプロンプトを生成する。
10個の自然言語理解(nlu)タスクに関する広範な実験は、提案手法が様々なプロンプトチューニングベースラインを一貫して上回っており、より少ないモデルパラメータをチューニングしながら、compacterのような他の効率的な転送学習方法と同等であることを示している。
関連論文リスト
- IAPT: Instruction-Aware Prompt Tuning for Large Language Models [19.408462115679914]
ソフトトークンを4つしか必要としない新しいプロンプトチューニング手法である命令認識型プロンプトチューニング(IAPT)を提案する。
まず,各トランスフォーマー層にパラメータ効率の良いソフトプロンプト生成器を設置し,各入力命令に対して慣用的なソフトプロンプトを生成する。
第2に、ソフトプロンプトジェネレータは、自己アテンションプーリング操作、2つのリニアプロジェクション、およびアクティベーション関数からなるボトルネックアーキテクチャを持つモジュールである。
論文 参考訳(メタデータ) (2024-05-28T14:11:01Z) - Prompt Customization for Continual Learning [57.017987355717935]
本稿では,継続的学習のためのプロンプト的アプローチを再構築し,プロンプト的カスタマイズ(PC)手法を提案する。
PCは主にプロンプト生成モジュール(PGM)とプロンプト変調モジュール(PMM)で構成される。
提案手法は,クラス,ドメイン,タスクに依存しないインクリメンタル学習タスクを含む3つの異なる設定に対して,4つのベンチマークデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-04-28T03:28:27Z) - SPT: Semi-Parametric Prompt Tuning for Multitask Prompted Learning [28.29889045842277]
マルチタスクによる学習は,さまざまなタスクセットを一度に一般化する上で有効だ。
マルチタスク学習のための半パラメトリックなプロンプトチューニング手法であるSPTを提案する。
論文 参考訳(メタデータ) (2022-12-21T11:18:09Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - Making Pre-trained Language Models End-to-end Few-shot Learners with
Contrastive Prompt Tuning [41.15017636192417]
CP-Tuning(CP-Tuning)は、言語モデルのための最初のエンドツーエンドのPrompt Tuningフレームワークである。
完全にトレーニング可能なプロンプトパラメータを持つタスク不変の連続プロンプトエンコーディング技術と統合されている。
IRシステムや異なるPLMで使用される様々な言語理解タスクの実験は、CP-Tuningが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-04-01T02:24:24Z) - Instance-aware Prompt Learning for Language Understanding and Generation [49.22899822734549]
本稿では,インスタンス毎に異なるプロンプトを学習するインスタンス対応プロンプト学習手法を提案する。
提案手法は,SuperGLUE数ショット学習ベンチマークの最先端性を実現する。
論文 参考訳(メタデータ) (2022-01-18T17:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。