論文の概要: Exploring Prompt-based Few-shot Learning for Grounded Dialog Generation
- arxiv url: http://arxiv.org/abs/2109.06513v1
- Date: Tue, 14 Sep 2021 08:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:40:52.455571
- Title: Exploring Prompt-based Few-shot Learning for Grounded Dialog Generation
- Title(参考訳): 接地ダイアログ生成のためのプロンプトベースマイトショット学習の検討
- Authors: Chujie Zheng, Minlie Huang
- Abstract要約: グラウンドドダイアログ生成(GDG)のためのプロンプトベース数ショット学習について検討する。
まず、GDGタスクのプロンプト構築を定式化し、次に2つの一般的なプロンプト手法の総合的な実験分析を行う。
本稿では,GDGにおける数ショット学習におけるプロンプトベースの手法の可能性を示すとともに,今後の研究の方向性を示す。
- 参考スコア(独自算出の注目度): 42.42941376461218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialog grounding enables conversational models to make full use of external
information to establish multiple desired qualities, such as knowledgeable,
engaging and empathetic. However, naturally grounded dialog corpora are usually
not directly available, which puts forward requirements for the few-shot
learning ability of conversational models. Motivated by recent advances in
pre-trained language models and prompt-based learning, in this paper we explore
prompt-based few-shot learning for grounded dialog generation (GDG). We first
formulate the prompt construction for GDG tasks, based on which we then conduct
comprehensive empirical analysis on two common types of prompting methods:
template-based prompting and soft-prompting. We demonstrate the potential of
prompt-based methods in few-shot learning for GDG and provide directions of
improvement for future work.
- Abstract(参考訳): ダイアログの基盤化により、会話モデルは外部情報を完全に活用して、知識、エンゲージメント、共感など、複数の望ましい品質を確立することができる。
しかし、自然に接地されたダイアログコーパスは通常直接利用できないため、会話モデルの数発の学習能力に要求が生じる。
本稿では,事前学習型言語モデルとプロンプトベース学習の最近の進歩に動機づけられ,グラウンドドダイアログ生成(gdg)のためのプロンプトベースマイトショット学習について検討する。
まず、GDGタスクのプロンプト構築を定式化し、テンプレートベースのプロンプトとソフトプロンプトという2つの一般的なプロンプト手法の総合的な実験分析を行う。
本稿では,gdgのためのマイトショット学習におけるプロンプトベース手法の可能性を示し,今後の作業における改善の方向性を示す。
関連論文リスト
- ChatPLUG: Open-Domain Generative Dialogue System with Internet-Augmented
Instruction Tuning for Digital Human [76.62897301298699]
ChatPLUGは、デジタルヒューマンアプリケーションのための中国のオープンドメイン対話システムである。
モデルネームは, 自動評価と人的評価の両方において, 最先端の中国語対話システムより優れていることを示す。
高速な推論でスマートスピーカーやインスタントメッセージアプリケーションのような実世界のアプリケーションにモデルネームをデプロイします。
論文 参考訳(メタデータ) (2023-04-16T18:16:35Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - GRASP: Guiding model with RelAtional Semantics using Prompt [3.1275060062551208]
本稿では Prompt (GRASP) を用いたRelAtional Semantics を用いた誘導モデルを提案する。
我々は、プロンプトベースの微調整アプローチを採用し、引数を意識したプロンプトマーカー戦略を用いて、ある対話における関係意味的手がかりをキャプチャする。
実験では、DialogREデータセット上でのF1とF1cのスコアの観点から、GRASPの最先端のパフォーマンスが評価された。
論文 参考訳(メタデータ) (2022-08-26T08:19:28Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - GALAXY: A Generative Pre-trained Model for Task-Oriented Dialog with
Semi-Supervised Learning and Explicit Policy Injection [36.77204909711832]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから,対話ポリシーを明示的に学習する,事前学習型ダイアログモデルを提案する。
具体的には、事前学習中にポリシー最適化のためのダイアログアクト予測タスクを導入し、一貫性の規則化項を用いて、学習した表現を洗練させる。
その結果,GALAXYはタスク指向対話システムの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2021-11-29T15:24:36Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - Language Model as an Annotator: Exploring DialoGPT for Dialogue
Summarization [29.887562761942114]
本稿では,対話応答生成のための事前学習モデルであるDialoGPTを,教師なし対話アノテータとして開発する方法を示す。
ダイアロGPTを用いて、2つの対話要約データセット(SAMSumとAMI)に3種類の特徴をラベル付けし、事前学習モデルと非訓練モデルを用いて要約する。
論文 参考訳(メタデータ) (2021-05-26T13:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。