論文の概要: PTR: Prompt Tuning with Rules for Text Classification
- arxiv url: http://arxiv.org/abs/2105.11259v1
- Date: Mon, 24 May 2021 13:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:20:21.256371
- Title: PTR: Prompt Tuning with Rules for Text Classification
- Title(参考訳): PTR: テキスト分類規則付きプロンプトチューニング
- Authors: Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun
- Abstract要約: 微調整された事前学習言語モデル(PLM)は、ほぼすべてのNLPタスクで素晴らしいパフォーマンスを実現している。
我々は,多クラステキスト分類のためのルール(PTR)による即時チューニングを提案する。
PTRは、各クラスの事前知識を即時チューニングにエンコードすることができる。
- 参考スコア(独自算出の注目度): 64.1655047016891
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuned pre-trained language models (PLMs) have achieved awesome
performance on almost all NLP tasks. By using additional prompts to fine-tune
PLMs, we can further stimulate the rich knowledge distributed in PLMs to better
serve downstream task. Prompt tuning has achieved promising results on some
few-class classification tasks such as sentiment classification and natural
language inference. However, manually designing lots of language prompts is
cumbersome and fallible. For those auto-generated prompts, it is also expensive
and time-consuming to verify their effectiveness in non-few-shot scenarios.
Hence, it is challenging for prompt tuning to address many-class classification
tasks. To this end, we propose prompt tuning with rules (PTR) for many-class
text classification, and apply logic rules to construct prompts with several
sub-prompts. In this way, PTR is able to encode prior knowledge of each class
into prompt tuning. We conduct experiments on relation classification, a
typical many-class classification task, and the results on benchmarks show that
PTR can significantly and consistently outperform existing state-of-the-art
baselines. This indicates that PTR is a promising approach to take advantage of
PLMs for those complicated classification tasks.
- Abstract(参考訳): 微調整された事前学習言語モデル(plm)は、ほとんどすべてのnlpタスクで素晴らしいパフォーマンスを達成しました。
PLMを微調整するための追加のプロンプトを使用することで、PLMに分散された豊富な知識をさらに刺激し、下流のタスクに役立てることができる。
プラットチューニングは、感情分類や自然言語推論のようないくつかのクラス分類タスクにおいて有望な結果を得た。
しかし、多くの言語プロンプトを手動で設計するのは面倒で誤りです。
自動生成プロンプトの場合、非フェウショットシナリオでの有効性を検証するのも高価で時間がかかります。
したがって、多くのクラス分類タスクに迅速に対処することは困難である。
そこで本研究では,多クラステキスト分類のためのプロンプトチューニング(ptr)を提案し,複数のサブプロンプトを用いたプロンプトの構築に論理ルールを適用する。
このように、ptrは各クラスの事前知識をプロンプトチューニングにエンコードすることができる。
関係分類, 典型的な多クラス分類タスクについて実験を行い, ベンチマークの結果から, PTRが既存の最先端のベースラインを大幅に上回ることを示す。
このことは、PTRが複雑な分類タスクにPLMを利用するための有望なアプローチであることを示している。
関連論文リスト
- Less is more: Summarizing Patch Tokens for efficient Multi-Label Class-Incremental Learning [38.36863497458095]
我々は, pAtch tokeN Embeddings (MULTI-LANE) を要約したクラス増分学習手法を提案する。
提案手法は, pAtch tokeN Embeddings (MULTI-LANE) を要約したマルチラベルクラスインクリメンタルラーニングであり, 高速な推論を実現するとともに, MLCILにおける非絡合タスク固有表現の学習を可能にする。
論文 参考訳(メタデータ) (2024-05-24T15:18:27Z) - RulePrompt: Weakly Supervised Text Classification with Prompting PLMs and Self-Iterative Logical Rules [30.239044569301534]
弱教師付きテキスト分類(WSTC)は、大量のテキストを分類できるため、注目を集めている。
本稿では,ルールマイニングモジュールとルール強化擬似ラベル生成モジュールからなるWSTCタスクに対して,ルールプロンプトというPLMベースのアプローチを提案する。
提案手法は解釈可能なカテゴリー規則を導出し,難解なカテゴリを曖昧にすることの利点を証明した。
論文 参考訳(メタデータ) (2024-03-05T12:50:36Z) - TCP:Textual-based Class-aware Prompt tuning for Visual-Language Model [78.77544632773404]
本稿では,テキストベースのクラス認識型Promptチューニング(TCP)を提案する。
TCPは、トレーニング時間の短縮を要求しながら、常に優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-30T03:59:23Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Prompt Tuning for Discriminative Pre-trained Language Models [96.04765512463415]
最近の研究は、自然言語処理(NLP)タスクに事前訓練言語モデル(PLM)を刺激する際の迅速なチューニングの有望な結果を示している。
ELECTRAのような差別的なPLMが、いかに効果的に迅速なチューニングが可能かは、まだ不明である。
DPTは,NLPタスクを識別言語モデリング問題に書き換える,識別型PLMの最初のプロンプトチューニングフレームワークである。
論文 参考訳(メタデータ) (2022-05-23T10:11:50Z) - PromptDA: Label-guided Data Augmentation for Prompt-based Few-shot
Learners [15.130992223266734]
本稿では,データ拡張のためのラベルの豊富なセマンティック情報を利用する新しいラベル誘導型データ拡張フレームワークであるPromptDAを提案する。
本研究は, 提案フレームワークの優れた性能を示すために, テキスト分類タスクを数ショットで行う実験である。
論文 参考訳(メタデータ) (2022-05-18T22:15:20Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - IDPG: An Instance-Dependent Prompt Generation Method [58.45110542003139]
Prompt tuningは、モデルトレーニング段階で各入力インスタンスにタスク固有のプロンプトを追加する、新しい、効率的なNLP転送学習パラダイムである。
本稿では,各入力インスタンスのプロンプトを生成する条件付きプロンプト生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T15:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。