論文の概要: MetricPrompt: Prompting Model as a Relevance Metric for Few-shot Text
Classification
- arxiv url: http://arxiv.org/abs/2306.08892v1
- Date: Thu, 15 Jun 2023 06:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:12:53.120465
- Title: MetricPrompt: Prompting Model as a Relevance Metric for Few-shot Text
Classification
- Title(参考訳): MetricPrompt:Few-shotテキスト分類の関連指標としてのプロンプトモデル
- Authors: Hongyuan Dong, Weinan Zhang, Wanxiang Che
- Abstract要約: MetricPromptは、数発のテキスト分類タスクをテキストペア関連性推定タスクに書き換えることで、言語設計の難易度を緩和する。
広範に使われている3つのテキスト分類データセットを4つのショット・セッティングで実験する。
結果から,MetricPromptは,手動弁証法や自動弁証法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 65.51149771074944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompting methods have shown impressive performance in a variety of text
mining tasks and applications, especially few-shot ones. Despite the promising
prospects, the performance of prompting model largely depends on the design of
prompt template and verbalizer. In this work, we propose MetricPrompt, which
eases verbalizer design difficulty by reformulating few-shot text
classification task into text pair relevance estimation task. MetricPrompt
adopts prompting model as the relevance metric, further bridging the gap
between Pre-trained Language Model's (PLM) pre-training objective and text
classification task, making possible PLM's smooth adaption. Taking a training
sample and a query one simultaneously, MetricPrompt captures cross-sample
relevance information for accurate relevance estimation. We conduct experiments
on three widely used text classification datasets across four few-shot
settings. Results show that MetricPrompt outperforms manual verbalizer and
other automatic verbalizer design methods across all few-shot settings,
achieving new state-of-the-art (SOTA) performance.
- Abstract(参考訳): プロンプティング手法は、様々なテキストマイニングタスクやアプリケーション、特に少数ショットのパフォーマンスを示している。
有望な見通しにもかかわらず、プロンプトモデルの性能はプロンプトテンプレートと動詞化器の設計に大きく依存する。
本研究では,テキストペア関連性評価タスクに数発のテキスト分類タスクを書き換えることで,言語設計の難しさを軽減するMetricPromptを提案する。
MetricPromptは、プロンプトモデルを関連指標として採用し、事前訓練された言語モデル(PLM)の事前学習目標とテキスト分類タスクのギャップを埋め、PLMのスムーズな適応を可能にする。
トレーニングサンプルとクエリを同時に受け取り、MetricPromptは、正確な関連性推定のためのクロスサンプル関連情報をキャプチャする。
広範に使われている3つのテキスト分類データセットを4つのショット設定で実験する。
その結果,MetricPromptは,手動言語器や自動言語器の設計手法よりも優れており,新しいSOTA(State-of-the-art)性能を実現していることがわかった。
関連論文リスト
- SpeechPrompt: Prompting Speech Language Models for Speech Processing Tasks [94.10497337235083]
我々はまず,音声処理分野における音声 LM の促進の可能性を探る。
音声処理タスクを音声単位生成タスクに再構成する。
提案手法は, 強い微調整法と比較して, 競争性能を向上できることを示す。
論文 参考訳(メタデータ) (2024-08-23T13:00:10Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - GRASS: Unified Generation Model for Speech-to-Semantic Tasks [7.044414457214718]
本稿では,音声データに対するタスク関連プロンプトに条件付きターゲットテキストを生成する統合エンドツーエンド(E2E)フレームワークを提案する。
提案モデルでは, 実体認識, 音声感情分析, 音声質問応答などを含む多くのベンチマークにおいて, 最先端のSOTA(State-of-the-art)結果が得られた。
音声合成タスクの微調整の今後の取り組みを容易にするため,命令データセットとコードをリリースする。
論文 参考訳(メタデータ) (2023-09-06T06:44:26Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Patch-Prompt Aligned Bayesian Prompt Tuning for Vision-Language Models [48.77653835765705]
そこでは,まず下位分布から潜在ベクトルをサンプリングし,次に軽量な生成モデルを用いてラベル固有のプロンプトを階層的に生成する。
提案手法の有効性は,少数ショット画像認識,ベース・ツー・ニュージェネリゼーション,データセット転送学習,ドメインシフトの4つのタスクで評価する。
論文 参考訳(メタデータ) (2023-03-16T06:09:15Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - STPrompt: Semantic-guided and Task-driven prompts for Effective Few-shot
Classification [5.6205035780719275]
本稿ではSTPrompt-Semantic-GuidedおよびTask-driven Promptモデルを提案する。
提案モデルでは,テキスト分類タスクの5つの異なるデータセットにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-29T04:42:30Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。