論文の概要: Open-domain Dialogue Generation Grounded with Dynamic Multi-form
Knowledge Fusion
- arxiv url: http://arxiv.org/abs/2204.11239v1
- Date: Sun, 24 Apr 2022 10:32:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 13:38:33.516884
- Title: Open-domain Dialogue Generation Grounded with Dynamic Multi-form
Knowledge Fusion
- Title(参考訳): 動的多形知識融合によるオープンドメイン対話生成
- Authors: Feifei Xu, Shanlin Zhou, Xinpeng Wang, Yunpu Ma, Wenkai Zhang, Zhisong
Li
- Abstract要約: 本稿では,新しい対話生成モデルである動的マルチフォーム知識融合に基づくオープンドメインチャットマシン(DMKCM)を提案する。
DMKCMは、関連文書を第1ホップとして見つけるためにインデックス付きテキスト(仮想知識ベース)を適用し、その後、コモンセンス知識グラフを使用して対話の内容と第1ホップを拡張して、アポサイトトリプルを第2ホップとして取得する。
実験結果から,対話のコヒーレンスと情報提供性の観点から,本手法の有効性が示唆された。
- 参考スコア(独自算出の注目度): 9.45662259790057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-domain multi-turn conversations normally face the challenges of how to
enrich and expand the content of the conversation. Recently, many approaches
based on external knowledge are proposed to generate rich semantic and
information conversation. Two types of knowledge have been studied for
knowledge-aware open-domain dialogue generation: structured triples from
knowledge graphs and unstructured texts from documents. To take both advantages
of abundant unstructured latent knowledge in the documents and the information
expansion capabilities of the structured knowledge graph, this paper presents a
new dialogue generation model, Dynamic Multi-form Knowledge Fusion based
Open-domain Chatt-ing Machine (DMKCM).In particular, DMKCM applies an indexed
text (a virtual Knowledge Base) to locate relevant documents as 1st hop and
then expands the content of the dialogue and its 1st hop using a commonsense
knowledge graph to get apposite triples as 2nd hop. To merge these two forms of
knowledge into the dialogue effectively, we design a dynamic virtual knowledge
selector and a controller that help to enrich and expand knowledge space.
Moreover, DMKCM adopts a novel dynamic knowledge memory module that effectively
uses historical reasoning knowledge to generate better responses. Experimental
results indicate the effectiveness of our method in terms of dialogue coherence
and informativeness.
- Abstract(参考訳): オープンドメインのマルチターン会話は通常、会話の内容の充実と拡張の方法の課題に直面します。
近年,豊富な意味と情報会話を生み出すために,外部知識に基づく多くのアプローチが提案されている。
知識グラフからの構造化トリプルと文書からの非構造化テキストという,知識を意識したオープンドメイン対話生成のための2つのタイプの知識が研究されている。
本稿では,文書に豊富な非構造化潜在知識と構造化知識グラフの情報拡張能力の利点を両立するために,新しい対話生成モデルである動的多形知識融合型オープンドメインチャットマシン(dmkcm)を提案する。
特に、DMKCMは、関連文書を第1ホップとして見つけるためにインデックス付きテキスト(仮想知識ベース)を適用し、その後、コモンセンス知識グラフを使用して対話の内容と第1ホップを拡張して、アポサイトトリプルを第2ホップとして取得する。
これら2つの知識を効果的に対話に融合するために,動的仮想知識セレクタと,知識空間の充実と拡張を支援するコントローラを設計した。
さらに、DMKCMは、歴史的推論知識を効果的に活用してより良い応答を生成する、新しい動的知識記憶モジュールを採用する。
実験結果から,対話コヒーレンスと情報性の観点から,本手法の有効性が示唆された。
関連論文リスト
- Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - Semi-Structured Chain-of-Thought: Integrating Multiple Sources of Knowledge for Improved Language Model Reasoning [10.839645156881573]
本稿では,テキスト文書からの非構造化知識と知識グラフからの構造化知識とをシームレスに統合する,新しい半構造化プロンプト手法を提案する。
オープンドメイン型マルチホップ質問応答データセットの実験結果から,提案手法が既存の手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2023-11-14T19:53:53Z) - Large Language Models as Source Planner for Personalized
Knowledge-grounded Dialogue [72.26474540602517]
SAFARIは、教師なしと教師なしの両方の設定で計画し、理解し、導入するための新しいフレームワークである。
我々は、パーソナライズされた知識ベース対話データセットtextittextbfKnowledge textbfBehind textbfPersona(textbfKBP)を構築する。
KBPデータセットによる実験結果から,SAFARIフレームワークはペルソナ一貫性と知識強化の応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2023-10-13T03:38:38Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - Commonsense and Named Entity Aware Knowledge Grounded Dialogue
Generation [20.283091595536835]
大規模コモンセンスと名前付きエンティティベース知識を効果的に活用するオープンドメイン対話生成モデルを提案する。
提案モデルでは,対話履歴と関連する知識の最も正確かつ重要な部分を保存するために,マルチホップアテンション層を利用する。
2つのベンチマークデータセットの実証結果は、我々のモデルが自動評価指標と人的判断の両方で最先端の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-27T12:11:40Z) - DialoKG: Knowledge-Structure Aware Task-Oriented Dialogue Generation [9.186215038100904]
本稿では,言語モデルに知識を効果的に組み込んだタスク指向対話システムであるDialoKGを提案する。
提案システムでは,リレーショナル知識を知識グラフとみなし,構造認識型知識埋め込み技術を導入する。
実験的な評価は、いくつかの標準ベンチマークデータセットにおける最先端手法に対するDialoKGの有効性を示す。
論文 参考訳(メタデータ) (2022-04-19T22:26:18Z) - HyKnow: End-to-End Task-Oriented Dialog Modeling with Hybrid Knowledge
Management [58.82499963373537]
ハイブリッドナレッジ管理のTODシステム「HyKnow」を提案します。
構造的知識と非構造的知識の両方を管理するための信念状態を拡張する。
この2つの知識に基づくモデリングを共同で最適化した最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2021-05-13T01:58:39Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - Knowledge-graph based Proactive Dialogue Generation with Improved
Meta-Learning [0.0]
本稿では,知識グラフに基づく3つのコンポーネントを用いたプロアクティブ対話生成モデル(KgDg)を提案する。
知識三重項の埋め込みと選択については、文の埋め込みの問題として定式化し、意味情報をよりよく捉える。
改良されたMAMLアルゴリズムは,限られた知識グラフから一般的な特徴を学習することができる。
論文 参考訳(メタデータ) (2020-04-19T08:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。