論文の概要: Contextual Knowledge Learning For Dialogue Generation
- arxiv url: http://arxiv.org/abs/2305.18200v1
- Date: Mon, 29 May 2023 16:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:10:42.271921
- Title: Contextual Knowledge Learning For Dialogue Generation
- Title(参考訳): 対話生成のための文脈知識学習
- Authors: Wen Zheng, Natasa Milic-Frayling, Ke Zhou
- Abstract要約: モデルトレーニングの不可欠な部分として,文脈と知識の重み付けに対する新しいアプローチを提案する。
我々は、文脈と知識のための潜在ベクトルを含む文脈知識学習プロセスを通じて、モデルトレーニングをガイドする。
- 参考スコア(独自算出の注目度): 13.671946960656467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incorporating conversational context and knowledge into dialogue generation
models has been essential for improving the quality of the generated responses.
The context, comprising utterances from previous dialogue exchanges, is used as
a source of content for response generation and as a means of selecting
external knowledge. However, to avoid introducing irrelevant content, it is key
to enable fine-grained scoring of context and knowledge. In this paper, we
present a novel approach to context and knowledge weighting as an integral part
of model training. We guide the model training through a Contextual Knowledge
Learning (CKL) process which involves Latent Vectors for context and knowledge,
respectively. CKL Latent Vectors capture the relationship between context,
knowledge, and responses through weak supervision and enable differential
weighting of context utterances and knowledge sentences during the training
process. Experiments with two standard datasets and human evaluation
demonstrate that CKL leads to a significant improvement compared with the
performance of six strong baseline models and shows robustness with regard to
reduced sizes of training sets.
- Abstract(参考訳): 対話生成モデルに会話コンテキストと知識を組み込むことは,生成した応答の品質向上に不可欠である。
従来の対話交換から発する発話を含む文脈は、応答生成のためのコンテンツ源および外部知識を選択する手段として使用される。
しかし、無関係なコンテンツの導入を避けるためには、コンテキストや知識のきめ細かいスコアリングを可能にすることが重要である。
本稿では,モデル学習の不可欠な部分として,文脈と知識の重み付けに関する新しいアプローチを提案する。
我々は,文脈知識学習(ckl)プロセスを通じて,文脈と知識に対する潜在ベクトルを含むモデルトレーニングを指導する。
CKL潜在ベクトルは、弱い監督を通して文脈、知識、反応の関係を捉え、訓練過程における文脈発話と知識文の差分重み付けを可能にする。
2つの標準データセットと人間による評価実験により、CKLは6つの強力なベースラインモデルの性能と比較して大幅に改善され、トレーニングセットのサイズの縮小に関して堅牢性を示している。
関連論文リスト
- Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - RT-KGD: Relation Transition Aware Knowledge-Grounded Dialogue Generation [20.37399983466163]
関係遷移を考慮した知識包含対話生成モデル(RT-KGD)を提案する。
具体的には、人間会話の潜在論理に触発され、対話レベルの関係遷移規則とターンレベルのエンティティ意味情報を統合する。
このように、知識間の相互作用は、適切な知識を予測し、一貫性のある応答を生成するための豊富な手がかりを生み出すと考えられる。
論文 参考訳(メタデータ) (2022-07-17T16:07:38Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - Learning to Express in Knowledge-Grounded Conversation [62.338124154016825]
本稿では,知識表現の2つの側面,すなわち各部分における内容の応答構造とスタイルについて考察する。
本稿では, セグメンテーションに基づく生成モデルを提案し, 応答における知識表現の基盤となるパターンを発見するために, 変動的アプローチを用いてモデルを最適化する。
論文 参考訳(メタデータ) (2022-04-12T13:43:47Z) - A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded
Dialogue Generation [0.9926500244448218]
本稿では,大規模アングラウンド対話と非構造化知識に基づく弱教師付き学習に基づく新しい3段階学習フレームワークを提案する。
我々のアプローチは、トレーニングデータが少なくて最先端のメソッドよりも優れており、ゼロリソースのシナリオであっても、我々のアプローチは依然としてうまく機能します。
論文 参考訳(メタデータ) (2021-09-09T08:32:02Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。