論文の概要: Knowledge-Grounded Dialogue with Reward-Driven Knowledge Selection
- arxiv url: http://arxiv.org/abs/2108.13686v1
- Date: Tue, 31 Aug 2021 08:53:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 23:30:13.455168
- Title: Knowledge-Grounded Dialogue with Reward-Driven Knowledge Selection
- Title(参考訳): Reward-Driven Knowledge Selection を用いた知識群対話
- Authors: Shilei Liu, Xiaofeng Zhao, Bochao Li, Feiliang Ren
- Abstract要約: Knoformerは強化学習に基づく対話応答生成モデルである。
知識プールから1つ以上の関連する知識を自動的に選択することができ、トレーニング中に知識ラベルを必要としない。
- 参考スコア(独自算出の注目度): 1.1633929083694388
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Knowledge-grounded dialogue is a task of generating a fluent and informative
response based on both conversation context and a collection of external
knowledge, in which knowledge selection plays an important role and attracts
more and more research interest. However, most existing models either select
only one knowledge or use all knowledge for responses generation. The former
may lose valuable information in discarded knowledge, while the latter may
bring a lot of noise. At the same time, many approaches need to train the
knowledge selector with knowledge labels that indicate ground-truth knowledge,
but these labels are difficult to obtain and require a large number of manual
annotations. Motivated by these issues, we propose Knoformer, a dialogue
response generation model based on reinforcement learning, which can
automatically select one or more related knowledge from the knowledge pool and
does not need knowledge labels during training. Knoformer is evaluated on two
knowledge-guided conversation datasets, and achieves state-of-the-art
performance.
- Abstract(参考訳): 知識基底対話は、会話コンテキストと外部知識の収集の両方に基づいて、流動的で情報的な応答を生成するタスクであり、知識の選択が重要な役割を担い、より多くの研究の関心を惹きつける。
しかし、既存のモデルの多くは1つの知識のみを選択するか、応答生成にすべての知識を使用する。
前者は捨てられた知識で貴重な情報を失うかもしれないし、後者は大きなノイズをもたらすかもしれない。
同時に、多くのアプローチでは、根底的な知識を示す知識ラベルで知識セレクタを訓練する必要があるが、これらのラベルは入手が困難であり、多くの手動アノテーションを必要とする。
これらの課題に触発されて,強化学習に基づく対話応答生成モデルであるKnoformerを提案し,知識プールから1つ以上の関連知識を自動的に選択し,学習中に知識ラベルを必要としない。
Knoformerは2つの知識誘導型会話データセットで評価され、最先端のパフォーマンスを達成する。
関連論文リスト
- Graph vs. Sequence: An Empirical Study on Knowledge Forms for
Knowledge-Grounded Dialogue [45.36967792307907]
我々は,3つの本質的な疑問に答えるために,その課題について徹底的な実験と研究を行う。
質問には、適切な知識形態の選択、知識とモデル選択の間の相互効果の度合い、知識のわずかなパフォーマンスなどが含まれる。
論文 参考訳(メタデータ) (2023-12-13T03:16:33Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - DialoKG: Knowledge-Structure Aware Task-Oriented Dialogue Generation [9.186215038100904]
本稿では,言語モデルに知識を効果的に組み込んだタスク指向対話システムであるDialoKGを提案する。
提案システムでは,リレーショナル知識を知識グラフとみなし,構造認識型知識埋め込み技術を導入する。
実験的な評価は、いくつかの標準ベンチマークデータセットにおける最先端手法に対するDialoKGの有効性を示す。
論文 参考訳(メタデータ) (2022-04-19T22:26:18Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - Difference-aware Knowledge Selection for Knowledge-grounded Conversation
Generation [101.48602006200409]
マルチターン・ナレッジ・グラウンドド・ダイアログのための差分認識型知識選択手法を提案する。
まず、現在のターンで提供される候補知識文と、前のターンで選択された候補知識文との差を計算する。
そして、差分情報を文脈情報と融合または解離させ、最終的な知識選択を容易にする。
論文 参考訳(メタデータ) (2020-09-20T07:47:26Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。