論文の概要: Zero-Resource Knowledge-Grounded Dialogue Generation
- arxiv url: http://arxiv.org/abs/2008.12918v2
- Date: Fri, 14 May 2021 17:13:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 17:23:16.538041
- Title: Zero-Resource Knowledge-Grounded Dialogue Generation
- Title(参考訳): ゼロソース知識包含対話生成
- Authors: Linxiao Li, Can Xu, Wei Wu, Yufan Zhao, Xueliang Zhao, Chongyang Tao
- Abstract要約: 本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
- 参考スコア(独自算出の注目度): 29.357221039484568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While neural conversation models have shown great potentials towards
generating informative and engaging responses via introducing external
knowledge, learning such a model often requires knowledge-grounded dialogues
that are difficult to obtain. To overcome the data challenge and reduce the
cost of building a knowledge-grounded dialogue system, we explore the problem
under a zero-resource setting by assuming no context-knowledge-response triples
are needed for training. To this end, we propose representing the knowledge
that bridges a context and a response and the way that the knowledge is
expressed as latent variables, and devise a variational approach that can
effectively estimate a generation model from a dialogue corpus and a knowledge
corpus that are independent with each other. Evaluation results on three
benchmarks of knowledge-grounded dialogue generation indicate that our model
can achieve comparable performance with state-of-the-art methods that rely on
knowledge-grounded dialogues for training, and exhibits a good generalization
ability over different topics and different datasets.
- Abstract(参考訳): 神経会話モデルは、外部知識の導入によって、情報的かつ魅力的な応答を生成するための大きな可能性を示しているが、そのようなモデルを学ぶには、獲得が難しい知識に基づく対話を必要とすることが多い。
この課題を克服し,知識基盤型対話システムの構築コストを削減するため,文脈知識応答三重項を学習に必要とせず,ゼロリソース環境下での課題を探究する。
そこで本研究では,コンテキストと応答を橋渡しする知識の表現と,知識を潜在変数として表現する方法を提案し,対話コーパスから生成モデルを効果的に推定できる変分的アプローチと,相互に独立した知識コーパスを考案する。
知識接地対話生成の3つのベンチマークによる評価結果から,我々のモデルは知識接地対話に依存する最先端の手法と同等の性能を達成でき,様々なトピックやデータセットに対して優れた一般化能力を示す。
関連論文リスト
- Bridging Information Gaps in Dialogues With Grounded Exchanges Using Knowledge Graphs [4.449835214520727]
対話的接地のための大規模言語モデルの可能性について検討する。
私たちのアプローチでは、5つの知識領域にまたがる人間の会話を注釈付けして、BridgeKGと呼ばれる対話コーパスを作成します。
本研究は,これらのモデルが会話ベースタスクや一般的な予測誤りに対して,コンテキスト内学習をどのように利用するかについての知見を提供する。
論文 参考訳(メタデータ) (2024-08-02T08:07:15Z) - Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - Contextual Knowledge Learning For Dialogue Generation [13.671946960656467]
モデルトレーニングの不可欠な部分として,文脈と知識の重み付けに対する新しいアプローチを提案する。
我々は、文脈と知識のための潜在ベクトルを含む文脈知識学習プロセスを通じて、モデルトレーニングをガイドする。
論文 参考訳(メタデータ) (2023-05-29T16:54:10Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded
Dialogue Generation [0.9926500244448218]
本稿では,大規模アングラウンド対話と非構造化知識に基づく弱教師付き学習に基づく新しい3段階学習フレームワークを提案する。
我々のアプローチは、トレーニングデータが少なくて最先端のメソッドよりも優れており、ゼロリソースのシナリオであっても、我々のアプローチは依然としてうまく機能します。
論文 参考訳(メタデータ) (2021-09-09T08:32:02Z) - Knowledge-Grounded Dialogue Generation with Pre-trained Language Models [74.09352261943911]
我々は、事前学習された言語モデルを用いた知識基底対話生成について研究する。
本稿では,知識選択モジュールを用いた事前学習言語モデルによって定義された等価応答生成を提案する。
論文 参考訳(メタデータ) (2020-10-17T16:49:43Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z) - Low-Resource Knowledge-Grounded Dialogue Generation [74.09352261943913]
我々は、限られた訓練例しか利用できないという自然な仮定のもと、知識基底による対話生成を考察する。
生成モデル全体から知識基底の対話に依存するパラメータを分離するために,不整合応答デコーダを考案する。
1/8のトレーニングデータだけで、我々のモデルは最先端のパフォーマンスを達成でき、ドメイン外の知識をうまく一般化できる。
論文 参考訳(メタデータ) (2020-02-24T16:20:32Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。