論文の概要: There Are a Thousand Hamlets in a Thousand People's Eyes: Enhancing
Knowledge-grounded Dialogue with Personal Memory
- arxiv url: http://arxiv.org/abs/2204.02624v1
- Date: Wed, 6 Apr 2022 07:06:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:15:36.585180
- Title: There Are a Thousand Hamlets in a Thousand People's Eyes: Enhancing
Knowledge-grounded Dialogue with Personal Memory
- Title(参考訳): 千人の目の中に何千ものハムレットがある: 知識に基づく対話を個人記憶で強化する
- Authors: Tingchen Fu, Xueliang Zhao, Chongyang Tao, Ji-Rong Wen, Rui Yan
- Abstract要約: 知識に基づく会話における知識選択に個人記憶を導入する。
本研究では,個人記憶から知識への前方マッピングと,その逆マッピングを閉ループに含める学習手法を提案する。
実験の結果,提案手法は自動評価と人的評価の両方において既存のKGC法よりも優れていた。
- 参考スコア(独自算出の注目度): 67.24942840683904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge-grounded conversation (KGC) shows great potential in building an
engaging and knowledgeable chatbot, and knowledge selection is a key ingredient
in it. However, previous methods for knowledge selection only concentrate on
the relevance between knowledge and dialogue context, ignoring the fact that
age, hobby, education and life experience of an interlocutor have a major
effect on his or her personal preference over external knowledge. Without
taking the personalization issue into account, it is difficult to select the
proper knowledge and generate persona-consistent responses. In this work, we
introduce personal memory into knowledge selection in KGC to address the
personalization issue. We propose a variational method to model the underlying
relationship between one's personal memory and his or her selection of
knowledge, and devise a learning scheme in which the forward mapping from
personal memory to knowledge and its inverse mapping is included in a closed
loop so that they could teach each other. Experiment results show that our
method outperforms existing KGC methods significantly on both automatic
evaluation and human evaluation.
- Abstract(参考訳): KGC(Knowledge-grounded conversation)は、有能で知識に富んだチャットボットを構築する上で大きな可能性を示し、その重要な要素は知識選択である。
しかし,従来の知識選択方法は,年齢,趣味,教育,生活経験が,外的知識よりも個人の好みに大きく影響しているという事実を無視して,知識と対話の文脈の関連性にのみ焦点を絞っている。
パーソナライゼーションの問題を考慮することなく、適切な知識を選択してペルソナ一貫性のある応答を生成することは困難である。
本研究では,個人化問題に対処するため,KGCにおける知識選択にパーソナルメモリを導入する。
そこで本研究では,個人の記憶と知識の選択との関係をモデル化する変分法を提案し,個人の記憶から知識への前方マッピングとその逆マッピングを閉じたループに含めて相互に教える学習方式を提案する。
実験の結果,提案手法は自動評価と人的評価の両方において既存のKGC法よりも優れていた。
関連論文リスト
- Stable Knowledge Editing in Large Language Models [68.98582618305679]
本稿では,知識ローカライゼーションではなく,知識増強に基づく知識編集手法であるStableKEを紹介する。
人間のラベル付けのコストを克服するため、StableKEは2つの自動知識増強戦略を統合している。
StableKEは、他の知識編集方法を超え、編集された知識とマルチホップ知識の両方の安定性を示す。
論文 参考訳(メタデータ) (2024-02-20T14:36:23Z) - Personalized Large Language Model Assistant with Evolving Conditional Memory [15.780762727225122]
条件記憶を進化させる大規模言語モデルアシスタントをパーソナライズするためのプラグイン・アンド・プレイフレームワークを提案する。
パーソナライズされたアシスタントは、ユーザとの履歴対話から知識と経験をインテリジェントに保存することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-22T02:39:15Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Knowledge-Grounded Dialogue with Reward-Driven Knowledge Selection [1.1633929083694388]
Knoformerは強化学習に基づく対話応答生成モデルである。
知識プールから1つ以上の関連する知識を自動的に選択することができ、トレーニング中に知識ラベルを必要としない。
論文 参考訳(メタデータ) (2021-08-31T08:53:08Z) - Know Deeper: Knowledge-Conversation Cyclic Utilization Mechanism for
Open-domain Dialogue Generation [11.72386584395626]
エンドツーエンドのインテリジェントなニューラルダイアログシステムは、一貫性のない繰り返し応答を生成する問題に悩まされる。
既存の対話モデルは、対人関係の会話情報を対人情報の流れとして捉えた個人知識に組み込むことが、その後の会話の質を高めるという事実を無視しながら、対人関係の個人知識を一方的にダイアログに組み込むことに注意を払っている。
会話の一貫性を向上し、2つの折り畳みから繰り返しを緩和することを目的とした,会話適応型多視点対応対応型応答生成モデルを提案する。
論文 参考訳(メタデータ) (2021-07-16T08:59:06Z) - Difference-aware Knowledge Selection for Knowledge-grounded Conversation
Generation [101.48602006200409]
マルチターン・ナレッジ・グラウンドド・ダイアログのための差分認識型知識選択手法を提案する。
まず、現在のターンで提供される候補知識文と、前のターンで選択された候補知識文との差を計算する。
そして、差分情報を文脈情報と融合または解離させ、最終的な知識選択を容易にする。
論文 参考訳(メタデータ) (2020-09-20T07:47:26Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。