論文の概要: ConsPrompt: Exploiting Contrastive Samples for Fewshot Prompt Learning
- arxiv url: http://arxiv.org/abs/2211.04118v3
- Date: Tue, 12 Mar 2024 08:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 02:35:37.434978
- Title: ConsPrompt: Exploiting Contrastive Samples for Fewshot Prompt Learning
- Title(参考訳): ConsPrompt:Fewshot Prompt Learningのためのコントラストサンプルのエクスプロイト
- Authors: Jinta Weng and Yifan Deng and d Donghao Li and Hao You and Yue Hu and
Heyan Huang
- Abstract要約: 本研究では,プロンプト表現のロバスト性を改善するために,適切なコントラストサンプルと多自由度コントラスト学習手法について検討する。
以上の結果から, 高速微調整プロセスにおける多自由度コントラスト学習の有効性が証明された。
- 参考スコア(独自算出の注目度): 37.219617741198334
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The prompt has become an effective linguistic tool for utilizing pre-trained
language models. However, in few-shot scenarios, subtle changes in the prompt
design always make the result widely different, and the prompt learning methods
also make it easy to overfit the limited samples. To alleviate this, we explore
utilizing suitable contrastive samples and multi-degree contrastive learning
methods to improve the robustness of the prompt representation. Therefore, the
proposed Consprompt combined with the prompt encoding network, contrastive
sampling modules, and contrastive scoring modules, is introduced to realize
differential contrastive learning. Our results exhibit state-of-the-art
performance in different few-shot settings, and the ablation experiments also
certify the effectiveness of utilizing multi-degree contrastive learning in the
prompt-based fine-tuning process.
- Abstract(参考訳): このプロンプトは、事前学習された言語モデルを活用するための効果的な言語ツールとなった。
しかし、少数のシナリオでは、プロンプトデザインの微妙な変更によって結果は常に大きく異なり、プロンプト学習方法によって限られたサンプルをオーバーフィットさせるのも容易になる。
そこで,本研究では,適切なコントラストサンプルと多角的コントラスト学習法を用いて,プロンプト表現のロバスト性を改善する。
そこで,提案したConspromptと,プロンプト符号化ネットワーク,コントラストサンプリングモジュール,およびコントラストスコアリングモジュールを組み合わせることで,差分コントラスト学習を実現する。
実験では,多次元コントラスト学習をプロンプトベースの微調整プロセスで活用する効果も検証した。
関連論文リスト
- ParaICL: Towards Robust Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - KDMCSE: Knowledge Distillation Multimodal Sentence Embeddings with Adaptive Angular margin Contrastive Learning [31.139620652818838]
マルチモーダル表現の識別と一般化性を高める新しい手法であるKDMCSEを提案する。
我々はまた、角空間内のマージンを強化することにより差別的表現を強化する新しいコントラスト的目的であるAdapACSEを導入する。
論文 参考訳(メタデータ) (2024-03-26T08:32:39Z) - In-context Prompt Learning for Test-time Vision Recognition with Frozen Vision-language Model [13.983810804606264]
In-Context Prompt Learning (InCPL) を提案する。
InCPLは、コンテキスト情報としてラベル付き例がほとんどない新しいテストサンプルを関連付けている。
テストサンプルに適した視覚的プロンプトを最適化するために、コンテキスト対応の教師なし損失を導入する。
論文 参考訳(メタデータ) (2024-03-10T08:15:51Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - CPL: Counterfactual Prompt Learning for Vision and Language Models [76.18024920393245]
本稿では、視覚と言語モデルのための新しいアンダーラインテキストbfCounterfactual underlinetextbfPrompt underlinetextbfLearning (CPL)法を提案する。
CPLは、共同最適化フレームワークにおいて、反ファクト生成とコントラスト学習を同時に採用している。
実験により、CPLは異なるビジョンと言語タスクにおいて優れた数ショットのパフォーマンスを得ることができることが示された。
論文 参考訳(メタデータ) (2022-10-19T08:06:39Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - Instance-aware Prompt Learning for Language Understanding and Generation [49.22899822734549]
本稿では,インスタンス毎に異なるプロンプトを学習するインスタンス対応プロンプト学習手法を提案する。
提案手法は,SuperGLUE数ショット学習ベンチマークの最先端性を実現する。
論文 参考訳(メタデータ) (2022-01-18T17:03:25Z) - Constructing Contrastive samples via Summarization for Text
Classification with limited annotations [46.53641181501143]
テキスト要約を用いた言語タスクのコントラストサンプル構築のための新しい手法を提案する。
我々はこれらのサンプルを教師付きコントラスト学習に使用し、アノテーションを限定したより良いテキスト表現を得る。
実世界のテキスト分類データセット(Amazon-5、Yelp-5、AG News)の実験では、提案したコントラスト学習フレームワークの有効性が示されている。
論文 参考訳(メタデータ) (2021-04-11T20:13:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。