論文の概要: Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation
- arxiv url: http://arxiv.org/abs/2112.07924v1
- Date: Wed, 15 Dec 2021 07:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:48:23.964072
- Title: Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation
- Title(参考訳): 統一知識表現を用いた知識接地対話生成
- Authors: Yu Li, Baolin Peng, Yelong Shen, Yi Mao, Lars Liden, Zhou Yu, Jianfeng
Gao
- Abstract要約: 既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 78.85622982191522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge-grounded dialogue systems are challenging to build due to the lack
of training data and heterogeneous knowledge sources. Existing systems perform
poorly on unseen topics due to limited topics covered in the training data. In
addition, heterogeneous knowledge sources make it challenging for systems to
generalize to other tasks because knowledge sources in different knowledge
representations require different knowledge encoders. To address these
challenges, we present PLUG, a language model that homogenizes different
knowledge sources to a unified knowledge representation for knowledge-grounded
dialogue generation tasks. PLUG is pre-trained on a dialogue generation task
conditioned on a unified essential knowledge representation. It can generalize
to different downstream knowledge-grounded dialogue generation tasks with a few
training examples. The empirical evaluation on two benchmarks shows that our
model generalizes well across different knowledge-grounded tasks. It can
achieve comparable performance with state-of-the-art methods under a
fully-supervised setting and significantly outperforms other methods in
zero-shot and few-shot settings.
- Abstract(参考訳): 知識接地対話システムは、トレーニングデータや異種知識源の欠如により構築が困難である。
既存のシステムは、トレーニングデータでカバーされるトピックが限られているため、目に見えないトピックではパフォーマンスが低下する。
さらに、異質な知識源は、異なる知識表現の知識源が異なる知識エンコーダを必要とするため、システムが他のタスクに一般化することを難しくする。
これらの課題に対処するため,我々は,異なる知識ソースを,知識接地対話生成タスクのための統一知識表現に相同化する言語モデル plug を提案する。
PLUGは、統一本質的な知識表現に基づく対話生成タスクで事前訓練される。
ダウンストリームの知識に基づく対話生成タスクを,いくつかのトレーニング例で一般化することができる。
2つのベンチマークにおける経験的評価は、我々のモデルは異なる知識ベースタスク間でよく一般化されていることを示している。
完全な教師付き設定で最先端のメソッドと同等のパフォーマンスを達成でき、ゼロショットと少数ショット設定で他のメソッドを大幅に上回ることができる。
関連論文リスト
- Large Language Models as Source Planner for Personalized
Knowledge-grounded Dialogue [72.26474540602517]
SAFARIは、教師なしと教師なしの両方の設定で計画し、理解し、導入するための新しいフレームワークである。
我々は、パーソナライズされた知識ベース対話データセットtextittextbfKnowledge textbfBehind textbfPersona(textbfKBP)を構築する。
KBPデータセットによる実験結果から,SAFARIフレームワークはペルソナ一貫性と知識強化の応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2023-10-13T03:38:38Z) - Position Matters! Empirical Study of Order Effect in Knowledge-grounded
Dialogue [54.98184262897166]
本稿では,知識集合の順序が自己回帰対話システムの応答にどのように影響するかを検討する。
本稿では,知識入力の位置埋め込みを変更することで,注文効果を緩和する,シンプルで斬新な手法を提案する。
論文 参考訳(メタデータ) (2023-02-12T10:13:00Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - DialoKG: Knowledge-Structure Aware Task-Oriented Dialogue Generation [9.186215038100904]
本稿では,言語モデルに知識を効果的に組み込んだタスク指向対話システムであるDialoKGを提案する。
提案システムでは,リレーショナル知識を知識グラフとみなし,構造認識型知識埋め込み技術を導入する。
実験的な評価は、いくつかの標準ベンチマークデータセットにおける最先端手法に対するDialoKGの有効性を示す。
論文 参考訳(メタデータ) (2022-04-19T22:26:18Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - Knowledge-Grounded Dialogue with Reward-Driven Knowledge Selection [1.1633929083694388]
Knoformerは強化学習に基づく対話応答生成モデルである。
知識プールから1つ以上の関連する知識を自動的に選択することができ、トレーニング中に知識ラベルを必要としない。
論文 参考訳(メタデータ) (2021-08-31T08:53:08Z) - Understanding Few-Shot Commonsense Knowledge Models [39.31365020474205]
トレーニングの常識知識モデルを数ショットで調査します。
数発の訓練システムから得られた知識に対する人間の品質評価は、完全に教師されたシステムから得られた知識の6%以内のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-01-01T19:01:09Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。