論文の概要: A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded
Dialogue Generation
- arxiv url: http://arxiv.org/abs/2109.04096v1
- Date: Thu, 9 Sep 2021 08:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-11 03:57:26.762290
- Title: A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded
Dialogue Generation
- Title(参考訳): 低リソース知識接地対話生成のための3段階学習フレームワーク
- Authors: Shilei Liu, Xiaofeng Zhao, Bochao Li, Feiliang Ren, Longhui Zhang,
Shujuan Yin
- Abstract要約: 本稿では,大規模アングラウンド対話と非構造化知識に基づく弱教師付き学習に基づく新しい3段階学習フレームワークを提案する。
我々のアプローチは、トレーニングデータが少なくて最先端のメソッドよりも優れており、ゼロリソースのシナリオであっても、我々のアプローチは依然としてうまく機能します。
- 参考スコア(独自算出の注目度): 0.9926500244448218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural conversation models have shown great potentials towards generating
fluent and informative responses by introducing external background knowledge.
Nevertheless, it is laborious to construct such knowledge-grounded dialogues,
and existing models usually perform poorly when transfer to new domains with
limited training samples. Therefore, building a knowledge-grounded dialogue
system under the low-resource setting is a still crucial issue. In this paper,
we propose a novel three-stage learning framework based on weakly supervised
learning which benefits from large scale ungrounded dialogues and unstructured
knowledge base. To better cooperate with this framework, we devise a variant of
Transformer with decoupled decoder which facilitates the disentangled learning
of response generation and knowledge incorporation. Evaluation results on two
benchmarks indicate that our approach can outperform other state-of-the-art
methods with less training data, and even in zero-resource scenario, our
approach still performs well.
- Abstract(参考訳): ニューラルな会話モデルは、外部の背景知識を導入することによって、流動的で情報的な応答を生み出す大きな可能性を示している。
それにもかかわらず、そのような知識に基づく対話を構築するのは手間がかかり、既存のモデルはトレーニングサンプルが限られた新しいドメインに移行する場合、通常、うまく機能しない。
したがって,低リソース環境下での知識接地対話システムの構築は依然として重要な課題である。
本稿では,大規模非接地対話と非構造化知識基盤の恩恵を受ける,弱い教師付き学習に基づく新しい3段階学習フレームワークを提案する。
このフレームワークにもっとよく協力するために、応答生成と知識の組み合せの解離学習を容易にする分離デコーダを用いたTransformerの変種を考案する。
2つのベンチマークによる評価結果から,我々のアプローチはトレーニングデータが少ない他の最先端メソッドよりも優れており,ゼロリソースシナリオにおいても優れた性能を保っていることがわかった。
関連論文リスト
- Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - Contextual Knowledge Learning For Dialogue Generation [13.671946960656467]
モデルトレーニングの不可欠な部分として,文脈と知識の重み付けに対する新しいアプローチを提案する。
我々は、文脈と知識のための潜在ベクトルを含む文脈知識学習プロセスを通じて、モデルトレーニングをガイドする。
論文 参考訳(メタデータ) (2023-05-29T16:54:10Z) - Knowledge-grounded Dialog State Tracking [12.585986197627477]
我々は,外部に符号化された知識に基づいて,対話状態の追跡を行う。
ダイアログのコンテキストに基づいて,様々な形態の関連知識を問い合わせる。
提案手法の強塩基性よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-13T01:34:08Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - Are Pre-trained Language Models Knowledgeable to Ground Open Domain
Dialogues? [20.598241369838668]
我々は、事前学習された言語モデルを用いた知識基底対話生成について研究する。
知識を含む対話を微調整することで、事前学習された言語モデルは最先端のモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-11-19T08:22:49Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Low-Resource Knowledge-Grounded Dialogue Generation [74.09352261943913]
我々は、限られた訓練例しか利用できないという自然な仮定のもと、知識基底による対話生成を考察する。
生成モデル全体から知識基底の対話に依存するパラメータを分離するために,不整合応答デコーダを考案する。
1/8のトレーニングデータだけで、我々のモデルは最先端のパフォーマンスを達成でき、ドメイン外の知識をうまく一般化できる。
論文 参考訳(メタデータ) (2020-02-24T16:20:32Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。