論文の概要: Instance-aware Prompt Learning for Language Understanding and Generation
- arxiv url: http://arxiv.org/abs/2201.07126v1
- Date: Tue, 18 Jan 2022 17:03:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:31:35.756554
- Title: Instance-aware Prompt Learning for Language Understanding and Generation
- Title(参考訳): 言語理解と生成のためのインスタンス対応プロンプト学習
- Authors: Feihu Jin, Jinliang Lu, Jiajun Zhang and Chengqing Zong
- Abstract要約: 本稿では,インスタンス毎に異なるプロンプトを学習するインスタンス対応プロンプト学習手法を提案する。
提案手法は,SuperGLUE数ショット学習ベンチマークの最先端性を実現する。
- 参考スコア(独自算出の注目度): 49.22899822734549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, prompt learning has become a new paradigm to utilize pre-trained
language models (PLMs) and achieves promising results in downstream tasks with
a negligible increase of parameters. The current usage of discrete and
continuous prompts assumes that the prompt is fixed for a specific task and all
samples in the task share the same prompt. However, a task may contain quite
diverse samples in which some are easy and others are difficult, and diverse
prompts are desirable. In this paper, we propose an instance-aware prompt
learning method that learns a different prompt for each instance. Specifically,
we suppose that each learnable prompt token has a different contribution to
different instances, and we learn the contribution by calculating the relevance
score between an instance and each prompt token. The contribution weighted
prompt would be instance aware. We apply our method to both unidirectional and
bidirectional PLMs on both language understanding and generation tasks.
Extensive experiments demonstrate that our method obtains considerable
improvements compared to strong baselines. Especially, our method achieves the
state-of-the-art on the SuperGLUE few-shot learning benchmark.
- Abstract(参考訳): 近年,事前学習型言語モデル(plm)を用いたプロンプト学習が新たなパラダイムとなり,パラメータの増大によって下流タスクで有望な結果が得られている。
現在の離散的および連続的なプロンプトの使用は、プロンプトが特定のタスクに対して固定され、タスク内のすべてのサンプルが同じプロンプトを共有することを前提としている。
しかし、タスクには非常に多様なサンプルが含まれており、その中には簡単で難しいものもあれば、さまざまなプロンプトが望ましいものもある。
本稿では,インスタンス毎に異なるプロンプトを学習するインスタンス認識型プロンプト学習手法を提案する。
具体的には、各学習可能なプロンプトトークンが異なるインスタンスに対して異なる貢献を持つと仮定し、各インスタンスと各プロンプトトークンの間の関連性スコアを計算して貢献を学習する。
貢献の重み付けされたプロンプトはインスタンスに認識されます。
本手法は,一方向plmと双方向plmの両方に,言語理解と生成タスクの両方に応用する。
広範な実験により,本手法は強いベースラインと比較して相当な改善が得られた。
特に,本手法は,SuperGLUE数ショット学習ベンチマークの最先端性を達成している。
関連論文リスト
- Multi-Prompt with Depth Partitioned Cross-Modal Learning [25.239388488952375]
Partitioned Multi-modal Prompt (PMPO) は、単一の学習可能なプロンプトから複数のプロンプトへのソフトプロンプトを拡張するマルチモーダルプロンプト技術である。
本手法は,視覚エンコーダ深度を分割し,学習可能なプロンプトを分離した視覚深度に接続することにより,階層的な文脈深度を捉えることができる。
我々は,新しいクラス一般化,クロスデータセット評価,ドメイン一般化の3つの課題に対して,アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2023-05-10T14:54:29Z) - Demystifying Prompts in Language Models via Perplexity Estimation [109.59105230163041]
プロンプトのパフォーマンスは、モデルが含んでいる言語に精通している範囲と結合している。
プロンプトの難易度が低ければ低いほど、プロンプトがタスクを実行することができることを示す。
論文 参考訳(メタデータ) (2022-12-08T02:21:47Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - IDPG: An Instance-Dependent Prompt Generation Method [58.45110542003139]
Prompt tuningは、モデルトレーニング段階で各入力インスタンスにタスク固有のプロンプトを追加する、新しい、効率的なNLP転送学習パラダイムである。
本稿では,各入力インスタンスのプロンプトを生成する条件付きプロンプト生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T15:45:27Z) - Making Pre-trained Language Models End-to-end Few-shot Learners with
Contrastive Prompt Tuning [41.15017636192417]
CP-Tuning(CP-Tuning)は、言語モデルのための最初のエンドツーエンドのPrompt Tuningフレームワークである。
完全にトレーニング可能なプロンプトパラメータを持つタスク不変の連続プロンプトエンコーディング技術と統合されている。
IRシステムや異なるPLMで使用される様々な言語理解タスクの実験は、CP-Tuningが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-04-01T02:24:24Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z) - Reordering Examples Helps during Priming-based Few-Shot Learning [6.579039107070663]
PERO は 10 個の例から効率よく一般化できることを示す。
提案手法が感情分類,自然言語推論,事実検索のタスクに与える影響を実証する。
論文 参考訳(メタデータ) (2021-06-03T11:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。