論文の概要: Response Generation with Context-Aware Prompt Learning
- arxiv url: http://arxiv.org/abs/2111.02643v1
- Date: Thu, 4 Nov 2021 05:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:04:30.311052
- Title: Response Generation with Context-Aware Prompt Learning
- Title(参考訳): 文脈認識型プロンプト学習による応答生成
- Authors: Xiaodong Gu, Kang Min Yoo, Sang-Woo Lee
- Abstract要約: 本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
- 参考スコア(独自算出の注目度): 19.340498579331555
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pre-trained language models (PLM) have marked a huge leap in neural dialogue
modeling. While PLMs are pre-trained on large-scale text corpora, they are
usually fine-tuned on scarce dialogue data with specific domain knowledge and
dialogue styles. However, tailoring the language models while fully utilizing
prior knowledge in large pre-trained models remains a challenge. In this paper,
we present a novel approach for pre-trained dialogue modeling that casts the
dialogue generation problem as a prompt-learning task. Instead of fine-tuning
on limited dialogue data, our approach, DialogPrompt, learns continuous prompt
embeddings optimized for dialogue contexts, which appropriately elicit
knowledge from the large pre-trained model. To encourage the model to better
utilize the prompt embeddings, the prompt encoders are designed to be
conditioned on the input dialogue context. Experiments on popular conversation
datasets show that our approach significantly outperforms the fine-tuning
baseline and the generic prompt-learning methods. Furthermore, human
evaluations strongly support the superiority of DialogPrompt in regard to
response generation quality.
- Abstract(参考訳): プレトレーニング言語モデル(PLM)は、ニューラルダイアログモデリングにおいて大きな飛躍を遂げた。
PLMは大規模テキストコーパスで事前訓練されるが、通常、特定のドメイン知識と対話スタイルを持つ少ない対話データに基づいて微調整される。
しかし、事前学習された大規模モデルで事前知識を十分に活用しながら、言語モデルを調整することは依然として課題である。
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しいアプローチを提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
モデルにプロンプト埋め込みをよりよく活用するよう促すため、プロンプトエンコーダは入力対話コンテキストで条件付けするように設計されている。
一般的な会話データセットの実験では、我々のアプローチは微調整ベースラインと汎用的なプロンプト学習法よりも大幅に優れていた。
さらに,人間の評価は,応答生成品質に関して,ダイアログプロンプトの優越性を強く支持する。
関連論文リスト
- Contextual Data Augmentation for Task-Oriented Dialog Systems [8.085645180329417]
本研究では,ユーザターンを生成する新しいダイアログ拡張モデルを構築し,完全なダイアログコンテキストを条件づける。
言語モデルの新しいプロンプト設計と出力の再ランク付けにより、我々のモデルから生成されたダイアログを直接使用して、下流ダイアログシステムのトレーニングを行うことができる。
論文 参考訳(メタデータ) (2023-10-16T13:22:34Z) - FutureTOD: Teaching Future Knowledge to Pre-trained Language Model for
Task-Oriented Dialogue [20.79359173822053]
本稿では,対話前学習モデルFutureTODを提案する。
我々の直感は、良い対話表現はどちらも局所的な文脈情報を学び、将来の情報を予測することである。
論文 参考訳(メタデータ) (2023-06-17T10:40:07Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
textscDialogicは、大規模言語モデルに基づく対話シミュレーション手法である。
本手法は,人間の関与を最小あるいはゼロに抑えながら,少数の対話データを迅速に拡張することができる。
我々のシミュレートされた対話は、ほぼ人間に近い流速とアノテーションの精度を持つ。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Post-Training Dialogue Summarization using Pseudo-Paraphrasing [12.083992819138716]
本稿では,対話から物語への言い換えとして,事前訓練済み言語モデル(PLM)を提案する。
総合的な実験により,本手法は対話要約におけるバニラPLMを大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-04-28T13:42:19Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
自然言語を理解し、人間と対話するための訓練機械は、人工知能の解明と本質的なタスクである。
本稿では,対話理解タスクにおける対話モデリングの技術的視点から,過去の手法を概観する。
さらに,対話シナリオにおけるPrLMの強化に使用される対話関連事前学習手法を分類する。
論文 参考訳(メタデータ) (2021-10-11T03:52:37Z) - Dialogue-oriented Pre-training [70.03028879331339]
一般的なプレーンテキスト上での会話特徴をシミュレートする3つの手法を提案する。
Dialog-PrLMは3つの公開マルチターン対話データセットに基づいて微調整される。
論文 参考訳(メタデータ) (2021-06-01T12:02:46Z) - DialogBERT: Discourse-Aware Response Generation via Learning to Recover
and Rank Utterances [18.199473005335093]
本稿では,従来の PLM に基づく対話モデルを強化した対話応答生成モデルである DialogBERT を提案する。
発話間の談話レベルのコヒーレンスを効果的に把握するために,マスク付き発話回帰を含む2つの訓練目標を提案する。
3つのマルチターン会話データセットの実験により、我々のアプローチがベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2020-12-03T09:06:23Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。