論文の概要: Low-Resource Knowledge-Grounded Dialogue Generation
- arxiv url: http://arxiv.org/abs/2002.10348v1
- Date: Mon, 24 Feb 2020 16:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 03:56:19.284134
- Title: Low-Resource Knowledge-Grounded Dialogue Generation
- Title(参考訳): 低リソース知識接地対話生成
- Authors: Xueliang Zhao, Wei Wu, Chongyang Tao, Can Xu, Dongyan Zhao, Rui Yan
- Abstract要約: 我々は、限られた訓練例しか利用できないという自然な仮定のもと、知識基底による対話生成を考察する。
生成モデル全体から知識基底の対話に依存するパラメータを分離するために,不整合応答デコーダを考案する。
1/8のトレーニングデータだけで、我々のモデルは最先端のパフォーマンスを達成でき、ドメイン外の知識をうまく一般化できる。
- 参考スコア(独自算出の注目度): 74.09352261943913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Responding with knowledge has been recognized as an important capability for
an intelligent conversational agent. Yet knowledge-grounded dialogues, as
training data for learning such a response generation model, are difficult to
obtain. Motivated by the challenge in practice, we consider knowledge-grounded
dialogue generation under a natural assumption that only limited training
examples are available. In such a low-resource setting, we devise a
disentangled response decoder in order to isolate parameters that depend on
knowledge-grounded dialogues from the entire generation model. By this means,
the major part of the model can be learned from a large number of ungrounded
dialogues and unstructured documents, while the remaining small parameters can
be well fitted using the limited training examples. Evaluation results on two
benchmarks indicate that with only 1/8 training data, our model can achieve the
state-of-the-art performance and generalize well on out-of-domain knowledge.
- Abstract(参考訳): 知識による応答は知的会話エージェントにとって重要な能力として認識されている。
しかし、そのような応答生成モデルを学ぶための学習データとして、知識接地対話を得るのは困難である。
実際の課題に動機づけられ,限られた訓練例しか得られないという自然な仮定の下で,知識に基づく対話生成を考える。
このような低リソース環境では、生成モデル全体から知識基底の対話に依存するパラメータを分離するために、不整合応答デコーダを考案する。
この方法では、モデルの主要な部分は多数の非接地対話や非構造化文書から学ぶことができ、残りの小さなパラメータは限られたトレーニング例を使用して適切に適合することができる。
2つのベンチマークによる評価結果は,1/8のトレーニングデータだけで,我々のモデルは最先端の性能を達成でき,ドメイン外の知識をうまく一般化できることを示している。
関連論文リスト
- Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - Response Generation with Context-Aware Prompt Learning [19.340498579331555]
本稿では,対話生成問題を素早い学習課題とする,事前学習型対話モデリングのための新しい手法を提案する。
限られた対話データを微調整する代わりに、我々のアプローチであるDialogPromptは、対話コンテキストに最適化された連続的なプロンプト埋め込みを学習する。
提案手法は,微調整ベースラインと汎用的なプロンプト学習法を著しく上回っている。
論文 参考訳(メタデータ) (2021-11-04T05:40:13Z) - Multimodal Dialogue Response Generation [27.611204319057393]
本稿では,対話履歴を入力とし,テキストシーケンスや画像を応答として生成するマルチモーダル対話生成モデルを提案する。
我々は、限られた訓練例しか利用できないという自然な仮定の下で、マルチモーダルな対話生成を考える。
このような低リソース環境では、モデル全体の多モーダル対話に依存するパラメータを分離するために、新しい対話エージェントであるDivterを考案する。
論文 参考訳(メタデータ) (2021-10-16T08:52:26Z) - A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded
Dialogue Generation [0.9926500244448218]
本稿では,大規模アングラウンド対話と非構造化知識に基づく弱教師付き学習に基づく新しい3段階学習フレームワークを提案する。
我々のアプローチは、トレーニングデータが少なくて最先端のメソッドよりも優れており、ゼロリソースのシナリオであっても、我々のアプローチは依然としてうまく機能します。
論文 参考訳(メタデータ) (2021-09-09T08:32:02Z) - Are Pre-trained Language Models Knowledgeable to Ground Open Domain
Dialogues? [20.598241369838668]
我々は、事前学習された言語モデルを用いた知識基底対話生成について研究する。
知識を含む対話を微調整することで、事前学習された言語モデルは最先端のモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-11-19T08:22:49Z) - Knowledge-Grounded Dialogue Generation with Pre-trained Language Models [74.09352261943911]
我々は、事前学習された言語モデルを用いた知識基底対話生成について研究する。
本稿では,知識選択モジュールを用いた事前学習言語モデルによって定義された等価応答生成を提案する。
論文 参考訳(メタデータ) (2020-10-17T16:49:43Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。