論文の概要: Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue
- arxiv url: http://arxiv.org/abs/2002.07510v2
- Date: Tue, 16 Jun 2020 02:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 19:58:53.711743
- Title: Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue
- Title(参考訳): 知識接地対話における逐次潜在知識選択
- Authors: Byeongchang Kim, Jaewoo Ahn, Gunhee Kim
- Abstract要約: この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
- 参考スコア(独自算出の注目度): 51.513276162736844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge-grounded dialogue is a task of generating an informative response
based on both discourse context and external knowledge. As we focus on better
modeling the knowledge selection in the multi-turn knowledge-grounded dialogue,
we propose a sequential latent variable model as the first approach to this
matter. The model named sequential knowledge transformer (SKT) can keep track
of the prior and posterior distribution over knowledge; as a result, it can not
only reduce the ambiguity caused from the diversity in knowledge selection of
conversation but also better leverage the response information for proper
choice of knowledge. Our experimental results show that the proposed model
improves the knowledge selection accuracy and subsequently the performance of
utterance generation. We achieve the new state-of-the-art performance on Wizard
of Wikipedia (Dinan et al., 2019) as one of the most large-scale and
challenging benchmarks. We further validate the effectiveness of our model over
existing conversation methods in another knowledge-based dialogue Holl-E
dataset (Moghe et al., 2018).
- Abstract(参考訳): 知識基底対話は、会話コンテキストと外部知識の両方に基づいて情報応答を生成するタスクである。
我々は,複数ターンの知識接地対話における知識選択のモデル化に焦点をあてることにより,この問題に対する最初のアプローチとして逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡できるため、会話の知識選択の多様性から生じるあいまいさを低減できるだけでなく、適切な知識選択のために応答情報を活用することができる。
実験結果から,提案モデルにより知識選択精度が向上し,発話生成性能が向上することが示された。
私たちはウィザード・オブ・ウィキペディア(Dinan et al., 2019)の最新の最先端のパフォーマンスを、最も大規模で挑戦的なベンチマークの1つとして達成しました。
また,他の知識に基づく対話型Holl-Eデータセット(Moghe et al., 2018)において,既存の会話手法よりもモデルの有効性を検証した。
関連論文リスト
- CET2: Modelling Topic Transitions for Coherent and Engaging
Knowledge-Grounded Conversations [44.32118148085158]
知識接地型対話システムは,対話コンテキストと選択された外部知識に基づいて,一貫性と係り合う応答を生成することを目的としている。
従来の知識選択手法は、対話の文脈に強く依存しすぎるか、選択した知識の中で新しい情報を過度に強調する傾向がある。
我々は,会話の文脈に忠実な知識を選択するためのトピック遷移をモデル化するために,コヒーレント・エンゲージング・トピック遷移フレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-04T08:55:34Z) - Position Matters! Empirical Study of Order Effect in Knowledge-grounded
Dialogue [54.98184262897166]
本稿では,知識集合の順序が自己回帰対話システムの応答にどのように影響するかを検討する。
本稿では,知識入力の位置埋め込みを変更することで,注文効果を緩和する,シンプルで斬新な手法を提案する。
論文 参考訳(メタデータ) (2023-02-12T10:13:00Z) - There Is No Standard Answer: Knowledge-Grounded Dialogue Generation with
Adversarial Activated Multi-Reference Learning [29.093220439736527]
KGC(Knowledge-grounded conversation)は、魅力的で情報的な応答を提供する優れた可能性を示している。
既存のアプローチでは、対話における1対1の現象を見越して、特定の対話コンテキストに与えられた1つの黄金の知識を選択することを強調する。
既存のKGCモデルの1対1の有効性を体系的に評価するための一連の指標を提案する。
論文 参考訳(メタデータ) (2022-10-22T14:43:33Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - GKS: Graph-based Knowledge Selector for Task-oriented Dialog System [0.688204255655161]
グラフ知識セレクタ(GKS)は、第9回対話システム技術チャレンジ(DSTC9)の知識選択に基づくデータセットで提案されたSOTAモデルより優れている
GKSは、逐次的特徴を伴わずに、言語モデルから生成された各知識の埋め込みを同時に考慮して、ダイアログにおける知識選択決定を行う。
論文 参考訳(メタデータ) (2021-12-07T14:16:26Z) - Knowledge-Grounded Dialogue with Reward-Driven Knowledge Selection [1.1633929083694388]
Knoformerは強化学習に基づく対話応答生成モデルである。
知識プールから1つ以上の関連する知識を自動的に選択することができ、トレーニング中に知識ラベルを必要としない。
論文 参考訳(メタデータ) (2021-08-31T08:53:08Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - Difference-aware Knowledge Selection for Knowledge-grounded Conversation
Generation [101.48602006200409]
マルチターン・ナレッジ・グラウンドド・ダイアログのための差分認識型知識選択手法を提案する。
まず、現在のターンで提供される候補知識文と、前のターンで選択された候補知識文との差を計算する。
そして、差分情報を文脈情報と融合または解離させ、最終的な知識選択を容易にする。
論文 参考訳(メタデータ) (2020-09-20T07:47:26Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。