論文の概要: Making Pre-trained Language Models End-to-end Few-shot Learners with
Contrastive Prompt Tuning
- arxiv url: http://arxiv.org/abs/2204.00166v1
- Date: Fri, 1 Apr 2022 02:24:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 12:58:20.183534
- Title: Making Pre-trained Language Models End-to-end Few-shot Learners with
Contrastive Prompt Tuning
- Title(参考訳): コントラスト・プロンプト・チューニングによる訓練済み言語モデルの作成
- Authors: Ziyun Xu, Chengyu Wang, Minghui Qiu, Fuli Luo, Runxin Xu, Songfang
Huang, Jun Huang
- Abstract要約: CP-Tuning(CP-Tuning)は、言語モデルのための最初のエンドツーエンドのPrompt Tuningフレームワークである。
完全にトレーニング可能なプロンプトパラメータを持つタスク不変の連続プロンプトエンコーディング技術と統合されている。
IRシステムや異なるPLMで使用される様々な言語理解タスクの実験は、CP-Tuningが最先端の手法より優れていることを示している。
- 参考スコア(独自算出の注目度): 41.15017636192417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained Language Models (PLMs) have achieved remarkable performance for
various language understanding tasks in IR systems, which require the
fine-tuning process based on labeled training data. For low-resource scenarios,
prompt-based learning for PLMs exploits prompts as task guidance and turns
downstream tasks into masked language problems for effective few-shot
fine-tuning. In most existing approaches, the high performance of prompt-based
learning heavily relies on handcrafted prompts and verbalizers, which may limit
the application of such approaches in real-world scenarios. To solve this
issue, we present CP-Tuning, the first end-to-end Contrastive Prompt Tuning
framework for fine-tuning PLMs without any manual engineering of task-specific
prompts and verbalizers. It is integrated with the task-invariant continuous
prompt encoding technique with fully trainable prompt parameters. We further
propose the pair-wise cost-sensitive contrastive learning procedure to optimize
the model in order to achieve verbalizer-free class mapping and enhance the
task-invariance of prompts. It explicitly learns to distinguish different
classes and makes the decision boundary smoother by assigning different costs
to easy and hard cases. Experiments over a variety of language understanding
tasks used in IR systems and different PLMs show that CP-Tuning outperforms
state-of-the-art methods.
- Abstract(参考訳): プレトレーニング言語モデル (PLM) は、ラベル付きトレーニングデータに基づく微調整処理を必要とするIRシステムにおいて、様々な言語理解タスクにおいて顕著な性能を達成した。
低リソースのシナリオでは、plmsのプロンプトベースの学習がプロンプトをタスクガイダンスとして活用し、ダウンストリームタスクをマスキング言語問題に変換し、効果的なマイニングを行う。
既存のほとんどのアプローチでは、プロンプトベースの学習の性能は手作りのプロンプトと言語化器に大きく依存しており、現実のシナリオにおけるそのようなアプローチの適用を制限する可能性がある。
本稿では,タスク固有のプロンプトと動詞化を手作業で設計することなく,plmを微調整する最初のエンドツーエンドのコントラスト・プロンプト・チューニング・フレームワークであるcp-tuningを提案する。
タスク不変の連続プロンプトエンコーディング技術と完全にトレーニング可能なプロンプトパラメータを統合している。
さらに,モデル最適化のためのペアワイズコストセンシティブなコントラスト学習手順を提案し,言語化なしクラスマッピングを実現し,プロンプトのタスク非分散性を高める。
異なるクラスを区別し、異なるコストを容易かつ困難なケースに割り当てることで、決定境界をよりスムーズにする。
IRシステムや異なるPLMで使用される様々な言語理解タスクの実験は、CP-Tuningが最先端の手法より優れていることを示している。
関連論文リスト
- Parameter-Efficient Fine-Tuning of Large Language Models using Semantic Knowledge Tuning [0.08795040582681389]
大規模言語モデル (LLMs) は近年,プロンプトを用いた特殊タスクにおいて大きな人気を集めている。
本稿では,ランダムトークンの代わりに有意な単語を用いたプロンプトおよびプレフィックスチューニングのためのセマンティック知識チューニング(SK-Tuning)を提案する。
実験結果から,SK-Tuningは,テキスト分類や理解などのタスクにおいて,より高速なトレーニング時間,少ないパラメータ,優れたパフォーマンスを示すことがわかった。
論文 参考訳(メタデータ) (2024-10-11T07:55:09Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - IDPG: An Instance-Dependent Prompt Generation Method [58.45110542003139]
Prompt tuningは、モデルトレーニング段階で各入力インスタンスにタスク固有のプロンプトを追加する、新しい、効率的なNLP転送学習パラダイムである。
本稿では,各入力インスタンスのプロンプトを生成する条件付きプロンプト生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T15:45:27Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。