論文の概要: Learning to Express in Knowledge-Grounded Conversation
- arxiv url: http://arxiv.org/abs/2204.05805v1
- Date: Tue, 12 Apr 2022 13:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 12:47:47.224520
- Title: Learning to Express in Knowledge-Grounded Conversation
- Title(参考訳): 知識基盤会話における表現の学習
- Authors: Xueliang Zhao, Tingchen Fu, Chongyang Tao, Wei Wu, Dongyan Zhao and
Rui Yan
- Abstract要約: 本稿では,知識表現の2つの側面,すなわち各部分における内容の応答構造とスタイルについて考察する。
本稿では, セグメンテーションに基づく生成モデルを提案し, 応答における知識表現の基盤となるパターンを発見するために, 変動的アプローチを用いてモデルを最適化する。
- 参考スコア(独自算出の注目度): 62.338124154016825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grounding dialogue generation by extra knowledge has shown great potentials
towards building a system capable of replying with knowledgeable and engaging
responses. Existing studies focus on how to synthesize a response with proper
knowledge, yet neglect that the same knowledge could be expressed differently
by speakers even under the same context. In this work, we mainly consider two
aspects of knowledge expression, namely the structure of the response and style
of the content in each part. We therefore introduce two sequential latent
variables to represent the structure and the content style respectively. We
propose a segmentation-based generation model and optimize the model by a
variational approach to discover the underlying pattern of knowledge expression
in a response. Evaluation results on two benchmarks indicate that our model can
learn the structure style defined by a few examples and generate responses in
desired content style.
- Abstract(参考訳): 余分な知識による対話生成は、知識と係わる応答で応答できるシステムを構築する大きな可能性を示している。
既存の研究では、適切な知識で応答を合成する方法に焦点が当てられているが、同じ知識が同じ文脈でも話者によって異なる表現が可能であることは無視されている。
本稿では,主に知識表現の2つの側面,すなわち各部分における内容の応答構造とスタイルについて考察する。
そこで我々は,構造とコンテンツスタイルを表す2つの逐次潜在変数を導入する。
本稿では,セグメンテーションに基づく生成モデルを提案し,応答における知識表現の基盤となるパターンを発見するための変分的アプローチによる最適化を行う。
2つのベンチマークによる評価結果は,本モデルがいくつかの例で定義された構造スタイルを学習し,所望のコンテンツスタイルで応答を生成することを示す。
関連論文リスト
- Diverse and Faithful Knowledge-Grounded Dialogue Generation via
Sequential Posterior Inference [82.28542500317445]
本稿では,知識の選択と対話生成が可能な,逐次後推論(Sequential Posterior Inference, SPI)と呼ばれるエンドツーエンド学習フレームワークを提案する。
他の方法とは異なり、SPIは推論ネットワークを必要とせず、後部分布の単純な幾何学を仮定する。
論文 参考訳(メタデータ) (2023-06-01T21:23:13Z) - Contextual Knowledge Learning For Dialogue Generation [13.671946960656467]
モデルトレーニングの不可欠な部分として,文脈と知識の重み付けに対する新しいアプローチを提案する。
我々は、文脈と知識のための潜在ベクトルを含む文脈知識学習プロセスを通じて、モデルトレーニングをガイドする。
論文 参考訳(メタデータ) (2023-05-29T16:54:10Z) - Dual Semantic Knowledge Composed Multimodal Dialog Systems [114.52730430047589]
本稿では,MDS-S2という新しいマルチモーダルタスク指向対話システムを提案する。
コンテキスト関連属性と関係知識を知識ベースから取得する。
また、合成された応答表現から意味情報を抽出するために、潜在クエリ変数のセットを考案する。
論文 参考訳(メタデータ) (2023-05-17T06:33:26Z) - Position Matters! Empirical Study of Order Effect in Knowledge-grounded
Dialogue [54.98184262897166]
本稿では,知識集合の順序が自己回帰対話システムの応答にどのように影響するかを検討する。
本稿では,知識入力の位置埋め込みを変更することで,注文効果を緩和する,シンプルで斬新な手法を提案する。
論文 参考訳(メタデータ) (2023-02-12T10:13:00Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - Building Knowledge-Grounded Dialogue Systems with Graph-Based Semantic Modeling [43.0554223015728]
知識基盤対話タスクは、与えられた知識文書から情報を伝える応答を生成することを目的としている。
対話と知識の両方のセマンティック構造をモデル化する新しいグラフ構造であるグラウンドドグラフを提案する。
また,知識接地応答生成を向上するグラウンドドグラフ認識変換器を提案する。
論文 参考訳(メタデータ) (2022-04-27T03:31:46Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。