論文の概要: Prompt Tuning for Discriminative Pre-trained Language Models
- arxiv url: http://arxiv.org/abs/2205.11166v1
- Date: Mon, 23 May 2022 10:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:19:49.361199
- Title: Prompt Tuning for Discriminative Pre-trained Language Models
- Title(参考訳): 識別事前学習言語モデルのためのプロンプトチューニング
- Authors: Yuan Yao, Bowen Dong, Ao Zhang, Zhengyan Zhang, Ruobing Xie, Zhiyuan
Liu, Leyu Lin, Maosong Sun, Jianyong Wang
- Abstract要約: 最近の研究は、自然言語処理(NLP)タスクに事前訓練言語モデル(PLM)を刺激する際の迅速なチューニングの有望な結果を示している。
ELECTRAのような差別的なPLMが、いかに効果的に迅速なチューニングが可能かは、まだ不明である。
DPTは,NLPタスクを識別言語モデリング問題に書き換える,識別型PLMの最初のプロンプトチューニングフレームワークである。
- 参考スコア(独自算出の注目度): 96.04765512463415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have shown promising results of prompt tuning in stimulating
pre-trained language models (PLMs) for natural language processing (NLP) tasks.
However, to the best of our knowledge, existing works focus on prompt-tuning
generative PLMs that are pre-trained to generate target tokens, such as BERT.
It is still unknown whether and how discriminative PLMs, e.g., ELECTRA, can be
effectively prompt-tuned. In this work, we present DPT, the first prompt tuning
framework for discriminative PLMs, which reformulates NLP tasks into a
discriminative language modeling problem. Comprehensive experiments on text
classification and question answering show that, compared with vanilla
fine-tuning, DPT achieves significantly higher performance, and also prevents
the unstable problem in tuning large PLMs in both full-set and low-resource
settings. The source code and experiment details of this paper can be obtained
from https://github.com/thunlp/DPT.
- Abstract(参考訳): 最近の研究は、自然言語処理(NLP)タスクのための事前学習言語モデル(PLM)を刺激する迅速なチューニングの有望な結果を示している。
しかし、我々の知る限りでは、既存の研究は、BERTのようなターゲットトークンを生成するために事前訓練された、プロンプトチューニングされた生成PLMに焦点を当てている。
ELECTRAのような差別的なPLMが、効果的に迅速なチューニングが可能かどうかはまだ不明である。
そこで本研究では,NLPタスクを識別言語モデリング問題に書き換える,識別型PLMの最初のプロンプトチューニングフレームワークであるDPTを提案する。
テキスト分類と質問応答に関する包括的な実験により、バニラの微調整と比較すると、dptは著しく高いパフォーマンスを達成でき、またフルセットと低リソースの両方で大きなplmをチューニングする際の不安定な問題も防いでいる。
本論文のソースコードと実験の詳細はhttps://github.com/thunlp/DPTから入手できる。
関連論文リスト
- Assessing Phrase Break of ESL Speech with Pre-trained Language Models
and Large Language Models [7.782346535009883]
本研究では,事前学習言語モデル (PLM) と大規模言語モデル (LLM) を用いて,ESL学習者の音声における句分割の評価手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T07:10:39Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Clinical Prompt Learning with Frozen Language Models [4.077071350659386]
大規模だが凍結した事前学習言語モデル (PLMs) は、より小型で微調整されたモデルよりも高速に学習できる。
臨床的に有意な意思決定課題における即時学習の実現可能性について検討した。
結果は、学習の速さと部分的に一致しており、学習の速さは従来の微調整と一致したり改善したりすることができる。
論文 参考訳(メタデータ) (2022-05-11T14:25:13Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - An Exploration of Prompt Tuning on Generative Spoken Language Model for
Speech Processing Tasks [112.1942546460814]
生成音声言語モデル(GSLM)に基づく音声処理タスクの即時チューニングパラダイムの最初の検討について報告する。
実験結果から, 学習可能なパラメータが少ない音声分類タスクにおいて, 高精度なダウンストリームモデルよりも, 即時チューニング手法が競合性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-03-31T03:26:55Z) - PERT: Pre-training BERT with Permuted Language Model [24.92527883997854]
PERT は Permuted Language Model (PerLM) で訓練された BERT のような自動エンコーディングモデルである
入力テキストのパーセンテージをパーミュレートし、トレーニングの目的は、元のトークンの位置を予測することである。
我々は中国語と英語のNLUベンチマークについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-03-14T07:58:34Z) - AdaPrompt: Adaptive Model Training for Prompt-based NLP [77.12071707955889]
PLMの継続事前学習のための外部データを適応的に検索するAdaPromptを提案する。
5つのNLPベンチマークの実験結果から、AdaPromptは数ショット設定で標準PLMよりも改善可能であることが示された。
ゼロショット設定では、標準のプロンプトベースの手法を26.35%の相対誤差削減で上回ります。
論文 参考訳(メタデータ) (2022-02-10T04:04:57Z) - PTR: Prompt Tuning with Rules for Text Classification [64.1655047016891]
微調整された事前学習言語モデル(PLM)は、ほぼすべてのNLPタスクで素晴らしいパフォーマンスを実現している。
我々は,多クラステキスト分類のためのルール(PTR)による即時チューニングを提案する。
PTRは、各クラスの事前知識を即時チューニングにエンコードすることができる。
論文 参考訳(メタデータ) (2021-05-24T13:24:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。