論文の概要: Context-Tuning: Learning Contextualized Prompts for Natural Language
Generation
- arxiv url: http://arxiv.org/abs/2201.08670v1
- Date: Fri, 21 Jan 2022 12:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:31:48.319511
- Title: Context-Tuning: Learning Contextualized Prompts for Natural Language
Generation
- Title(参考訳): コンテキストチューニング:自然言語生成のための文脈化プロンプトの学習
- Authors: Tianyi Tang, Junyi Li, Wayne Xin Zhao
- Abstract要約: 自然言語生成のための微調整PLMに対して,Context-Tuningと呼ばれる新しい連続的プロンプト手法を提案する。
まず、入力テキストに基づいてプロンプトを導出し、PLMから有用な知識を抽出して生成する。
第二に、生成したテキストの入力に対する関連性をさらに高めるために、連続的な逆プロンプトを用いて自然言語生成のプロセスを洗練する。
- 参考スコア(独自算出の注目度): 52.835877179365525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, pretrained language models (PLMs) have made exceptional success in
language generation. To leverage the rich knowledge encoded by PLMs, a simple
yet powerful mechanism is to use prompts, in the form of either discrete tokens
or continuous embeddings. In existing studies, manual prompts are
time-consuming and require domain expertise, while continuous prompts are
typically independent of the inputs. To address this issue, we propose a novel
continuous prompting approach, called Context-Tuning, to fine-tuning PLMs for
natural language generation. Firstly, the prompts are derived based on the
input text, so that they can elicit useful knowledge from PLMs for generation.
We refer to such prompts as contextualized prompts. Secondly, to further
enhance the relevance of the generated text to the inputs, we utilize
continuous inverse prompting to refine the process of natural language
generation by modeling an inverse generation process from output to input.
Moreover, we propose a lightweight contexttuning, fine-tuning only 0.4% of
parameters while retaining well performance.
- Abstract(参考訳): 近年,プレトレーニング言語モデル (PLM) は言語生成において極めて成功している。
plmsでエンコードされるリッチな知識を活用するために、シンプルで強力なメカニズムは、離散トークンまたは連続埋め込みの形式でプロンプトを使用することである。
既存の研究では、手動プロンプトは時間を使い、ドメインの専門知識を必要とするが、継続的プロンプトは通常入力から独立している。
この問題に対処するために、自然言語生成のための微調整PLMに対して、Context-Tuningと呼ばれる新しい連続的プロンプト手法を提案する。
第一に、プロンプトは入力テキストに基づいて導出されるので、plmから有用な知識を生成に導くことができる。
このようなプロンプトをコンテキスト化されたプロンプトと呼ぶ。
第二に、生成したテキストの入力に対する関連性をさらに高めるために、連続的な逆プロンプトを用いて、入力から出力への逆生成プロセスをモデル化することにより、自然言語生成のプロセスを洗練する。
さらに,優れた性能を維持しつつ,パラメータの0.4%を微調整する軽量なコンテキストチューニングを提案する。
関連論文リスト
- IPO: Interpretable Prompt Optimization for Vision-Language Models [40.83071220530289]
本稿では,シンプルだが解釈可能なプロンプト(IPO)を紹介する。
IPOは大規模言語モデル(LLM)を使用してテキストプロンプトを動的に生成する。
画像記述を生成することで、視覚的内容の条件付けに大型マルチモーダルモデル(LMM)を組み込む。
論文 参考訳(メタデータ) (2024-10-20T14:10:22Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - MPrompt: Exploring Multi-level Prompt Tuning for Machine Reading
Comprehension [19.12663587559988]
機械読取理解のためのマルチレベルプロンプトチューニング(MPrompt)手法を提案する。
タスク特化、ドメイン特化、コンテキスト特化レベルでのプロンプトを利用して、入力セマンティクスの理解を強化する。
各種QAフォーマットのベンチマーク12件について広範な実験を行い,最先端手法よりも平均1.94%向上した。
論文 参考訳(メタデータ) (2023-10-27T14:24:06Z) - Demonstrate-Search-Predict: Composing retrieval and language models for
knowledge-intensive NLP [77.817293104436]
本稿では,LMとRMの間の洗練されたパイプラインにおいて,自然言語テキストを渡すことに依存するフレームワークを提案する。
我々は、オープンドメイン、マルチホップ、会話設定で質問に答えるための新しいDSPプログラムを作成した。
論文 参考訳(メタデータ) (2022-12-28T18:52:44Z) - AdaPrompt: Adaptive Model Training for Prompt-based NLP [77.12071707955889]
PLMの継続事前学習のための外部データを適応的に検索するAdaPromptを提案する。
5つのNLPベンチマークの実験結果から、AdaPromptは数ショット設定で標準PLMよりも改善可能であることが示された。
ゼロショット設定では、標準のプロンプトベースの手法を26.35%の相対誤差削減で上回ります。
論文 参考訳(メタデータ) (2022-02-10T04:04:57Z) - AutoPrompt: Eliciting Knowledge from Language Models with Automatically
Generated Prompts [46.03503882865222]
AutoPromptは、勾配誘導検索に基づいて、さまざまなタスクセットのプロンプトを作成する自動メソッドである。
マスク付き言語モデル(MLM)は,感情分析や自然言語推論を,追加パラメータや微調整を伴わずに行う能力を持つことを示す。
論文 参考訳(メタデータ) (2020-10-29T22:54:00Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。