論文の概要: Generative Prompt Tuning for Relation Classification
- arxiv url: http://arxiv.org/abs/2210.12435v1
- Date: Sat, 22 Oct 2022 12:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:08:02.565413
- Title: Generative Prompt Tuning for Relation Classification
- Title(参考訳): 関係分類のための生成プロンプトチューニング
- Authors: Jiale Han, Shuai Zhao, Bo Cheng, Shengkun Ma, Wei Lu
- Abstract要約: 本稿では,関係分類を埋め込み問題として再構成する新しい生成的プロンプトチューニング手法を提案する。
さらに,エンティティ誘導型復号化と識別的関係スコアリングを設計し,推論中の関係を効果的かつ効率的に生成・調整する。
- 参考スコア(独自算出の注目度): 21.027631157115135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using prompts to explore the knowledge contained within pre-trained language
models for downstream tasks has now become an active topic. Current prompt
tuning methods mostly convert the downstream tasks to masked language modeling
problems by adding cloze-style phrases and mapping all labels to verbalizations
with fixed length, which has proven effective for tasks with simple label
spaces. However, when applied to relation classification exhibiting complex
label spaces, vanilla prompt tuning methods may struggle with label
verbalizations with arbitrary lengths due to rigid prompt restrictions.
Inspired by the text infilling task for pre-training generative models that can
flexibly predict missing spans, we propose a novel generative prompt tuning
method to reformulate relation classification as an infilling problem, which
frees our approach from limitations of current prompt based approaches and thus
fully exploits rich semantics of entity and relation types. In addition, we
design entity-guided decoding and discriminative relation scoring to generate
and align relations effectively and efficiently during inference. Extensive
experiments under fully supervised settings and low-resource settings
demonstrate the effectiveness of our approach.
- Abstract(参考訳): 下流タスクのための事前訓練された言語モデルに含まれる知識を探索するプロンプトが、現在活発なトピックとなっている。
現在のプロンプトチューニング手法は、クロゼスタイルの句を追加し、すべてのラベルを固定長の動詞化にマッピングすることで、下流のタスクをマスキングされた言語モデリング問題に変換する。
しかしながら、複雑なラベル空間を示す関係分類に適用した場合、バニラプロンプトチューニング法は、厳密なプロンプト制限による任意の長さのラベル動詞化に苦労する可能性がある。
そこで本研究では,スパンの欠落を柔軟に予測できる自動生成モデルのテキストインフィルングタスクに触発されて,リレーショナル分類をインフィルディング問題として再編成する新しい生成型プロンプトチューニング手法を提案する。
さらに,エンティティ誘導型復号・判別関係スコアリングの設計を行い,推論中に関係を効果的かつ効率的に生成・調整する。
完全教師付き設定と低リソース設定による大規模な実験は、我々のアプローチの有効性を実証する。
関連論文リスト
- Generative Context Distillation [48.91617280112579]
Generative Context Distillation (GCD) は、ジョイントトレーニングアプローチを採用した軽量なプロンプト内在化手法である。
エージェントベースのアプリケーションシナリオにおいて,このアプローチが複雑なプロンプトを効果的に内部化することを示す。
論文 参考訳(メタデータ) (2024-11-24T17:32:20Z) - Manual Verbalizer Enrichment for Few-Shot Text Classification [1.860409237919611]
acrshortmaveは、クラスラベルの豊か化による動詞化のためのアプローチである。
本モデルでは, 資源を著しく減らしながら, 最先端の成果が得られている。
論文 参考訳(メタデータ) (2024-10-08T16:16:47Z) - SciPrompt: Knowledge-augmented Prompting for Fine-grained Categorization of Scientific Topics [2.3742710594744105]
SciPromptは,低リソーステキスト分類タスクに対して,科学的トピック関連用語を自動的に検索するフレームワークである。
本手法は, ほとんど, ゼロショット設定下での科学的テキスト分類作業において, 最先端, 即時的な微調整法より優れる。
論文 参考訳(メタデータ) (2024-10-02T18:45:04Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - LabelPrompt: Effective Prompt-based Learning for Relation Classification [31.291466190218912]
本稿では,関係分類タスクのための新しいプロンプト型学習手法であるLabelPromptを提案する。
GIVE MODEL CHOICES!'の直感により、まず関係ラベルを表すための追加トークンを定義し、これらのトークンを意味的初期化を伴う動詞としてみなす。
そして、予測関係と与えられた実体との整合性を緩和するために、コントラスト学習を伴うエンティティ認識モジュールを実装した。
論文 参考訳(メタデータ) (2023-02-16T04:06:25Z) - Class Enhancement Losses with Pseudo Labels for Zero-shot Semantic
Segmentation [40.09476732999614]
マスクの提案モデルは、ゼロショットセマンティックセグメンテーションの性能を大幅に改善した。
トレーニング中にバックグラウンドを埋め込むことは問題であり、結果として得られたモデルが過剰に学習し、正しいラベルではなく、すべての見えないクラスをバックグラウンドクラスとして割り当てる傾向がある。
本稿では,学習中の背景埋め込みの使用を回避し,テキスト埋め込みとマスク提案のセマンティックな関係を類似度スコアのランク付けにより活用する新しいクラス拡張損失を提案する。
論文 参考訳(メタデータ) (2023-01-18T06:55:02Z) - CCPrefix: Counterfactual Contrastive Prefix-Tuning for Many-Class
Classification [57.62886091828512]
多クラス分類のための新しいプレフィックスチューニング手法であるCCPrefixを提案する。
基本的に、ラベル空間における実数対から派生したインスタンス依存の軟式接頭辞は、多クラス分類における言語動詞化を補完するために利用される。
論文 参考訳(メタデータ) (2022-11-11T03:45:59Z) - Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt
Verbalizer for Text Classification [68.3291372168167]
我々は、外部知識を言語化に取り入れることに集中し、知識に富んだプロンプトチューニング(KPT)を形成する。
我々は,外部知識ベース(KB)を用いてラベル語空間を拡張し,拡張されたラベル語空間で予測する前に PLM 自体で拡張されたラベル語空間を洗練する。
ゼロと少数ショットのテキスト分類タスクの実験は、知識のあるプロンプトチューニングの有効性を示す。
論文 参考訳(メタデータ) (2021-08-04T13:00:16Z) - KnowPrompt: Knowledge-aware Prompt-tuning with Synergistic Optimization
for Relation Extraction [111.74812895391672]
シナジスティック最適化(KnowPrompt)を用いた知識認識型Promptチューニング手法を提案する。
関係ラベルに含まれる潜在知識をインジェクトして,学習可能な仮想型語と解答語で構築する。
論文 参考訳(メタデータ) (2021-04-15T17:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。