論文の概要: Adaptive Prompt Learning-based Few-Shot Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2205.07220v1
- Date: Sun, 15 May 2022 08:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 14:00:05.797712
- Title: Adaptive Prompt Learning-based Few-Shot Sentiment Analysis
- Title(参考訳): 適応型プロンプト学習に基づく少数ショット感情分析
- Authors: Pengfei Zhang and Tingting Chai and Yongdong Xu
- Abstract要約: 本稿では,Seq2seqアテンション構造を用いた適応的プロンプト(AP)構築戦略を提案する。
FewCLUEデータセットを用いた実験結果から,提案手法のAPは適切な適応的プロンプトを効果的に構築できることを示した。
- 参考スコア(独自算出の注目度): 6.134988345135517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of natural language processing, sentiment analysis via deep
learning has a excellent performance by using large labeled datasets.
Meanwhile, labeled data are insufficient in many sentiment analysis, and
obtaining these data is time-consuming and laborious. Prompt learning devotes
to resolving the data deficiency by reformulating downstream tasks with the
help of prompt. In this way, the appropriate prompt is very important for the
performance of the model. This paper proposes an adaptive prompting(AP)
construction strategy using seq2seq-attention structure to acquire the semantic
information of the input sequence. Then dynamically construct adaptive prompt
which can not only improve the quality of the prompt, but also can effectively
generalize to other fields by pre-trained prompt which is constructed by
existing public labeled data. The experimental results on FewCLUE datasets
demonstrate that the proposed method AP can effectively construct appropriate
adaptive prompt regardless of the quality of hand-crafted prompt and outperform
the state-of-the-art baselines.
- Abstract(参考訳): 自然言語処理の分野では、ディープラーニングによる感情分析は大きなラベル付きデータセットを使用することで優れた性能を発揮する。
一方、ラベル付きデータは多くの感情分析では不十分であり、これらのデータを取得するのは時間と労力を要する。
Prompt Learningは、下流のタスクをプロンプトの助けを借りて修正することで、データ不足の解消に全力を注いでいる。
このように、適切なプロンプトはモデルの性能にとって非常に重要である。
本稿では,Seq2seqアテンション構造を用いた適応的プロンプト(AP)構築戦略を提案し,入力シーケンスの意味情報を取得する。
そして、既存のラベル付きデータによって構築された事前学習されたプロンプトによって、プロンプトの品質を向上させるだけでなく、他のフィールドに効果的に一般化できる適応プロンプトを動的に構築する。
FewCLUEデータセットを用いた実験結果から,手作りプロンプトの品質に関わらず,提案手法のAPが適切な適応プロンプトを効果的に構築し,最先端のベースラインより優れていることが示された。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - IPO: Interpretable Prompt Optimization for Vision-Language Models [40.83071220530289]
本稿では,シンプルだが解釈可能なプロンプト(IPO)を紹介する。
IPOは大規模言語モデル(LLM)を使用してテキストプロンプトを動的に生成する。
画像記述を生成することで、視覚的内容の条件付けに大型マルチモーダルモデル(LMM)を組み込む。
論文 参考訳(メタデータ) (2024-10-20T14:10:22Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Boosting Event Extraction with Denoised Structure-to-Text Augmentation [52.21703002404442]
イベント抽出は、テキストから事前に定義されたイベントトリガと引数を認識することを目的としている。
最近のデータ拡張手法は文法的誤りの問題を無視することが多い。
本稿では,イベント抽出DAEEのための記述構造からテキストへの拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T16:52:07Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - STPrompt: Semantic-guided and Task-driven prompts for Effective Few-shot
Classification [5.6205035780719275]
本稿ではSTPrompt-Semantic-GuidedおよびTask-driven Promptモデルを提案する。
提案モデルでは,テキスト分類タスクの5つの異なるデータセットにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-29T04:42:30Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - Prompt-Learning for Fine-Grained Entity Typing [40.983849729537795]
完全教師付き,少数ショット,ゼロショットシナリオにおける微粒化エンティティタイピングに対するプロンプトラーニングの適用について検討する。
本稿では,エンティティタイプの情報を自動的に要約するために,プロンプトラーニングにおける分布レベルの最適化を行う自己教師型戦略を提案する。
論文 参考訳(メタデータ) (2021-08-24T09:39:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。