論文の概要: Towards a Unified Conversational Recommendation System: Multi-task
Learning via Contextualized Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2310.18119v1
- Date: Fri, 27 Oct 2023 13:06:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 13:43:33.925727
- Title: Towards a Unified Conversational Recommendation System: Multi-task
Learning via Contextualized Knowledge Distillation
- Title(参考訳): 統合会話推薦システムに向けて--文脈的知識蒸留によるマルチタスク学習
- Authors: Yeongseo Jung, Eunseo Jung, Lei Chen
- Abstract要約: 統合会話推薦システム(CRS)のためのマルチタスク学習を提案する。
文脈的知識蒸留(ConKD)を用いた単一モデルによる協調学習
実験の結果,1つのモデルでは,適応度を高めながら推奨性能を著しく向上し,多様性の観点からも同等の結果が得られた。
- 参考スコア(独自算出の注目度): 5.125530969984795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Conversational Recommendation System (CRS), an agent is asked to recommend
a set of items to users within natural language conversations. To address the
need for both conversational capability and personalized recommendations, prior
works have utilized separate recommendation and dialogue modules. However, such
approach inevitably results in a discrepancy between recommendation results and
generated responses. To bridge the gap, we propose a multi-task learning for a
unified CRS, where a single model jointly learns both tasks via Contextualized
Knowledge Distillation (ConKD). We introduce two versions of ConKD: hard gate
and soft gate. The former selectively gates between two task-specific teachers,
while the latter integrates knowledge from both teachers. Our gates are
computed on-the-fly in a context-specific manner, facilitating flexible
integration of relevant knowledge. Extensive experiments demonstrate that our
single model significantly improves recommendation performance while enhancing
fluency, and achieves comparable results in terms of diversity.
- Abstract(参考訳): Conversational Recommendation System (CRS)では、自然言語の会話の中でユーザに対して一連のアイテムを推薦するようエージェントに依頼する。
会話能力とパーソナライズドレコメンデーションの両方の必要性に対処するため、先行作品は個別のレコメンデーションと対話モジュールを使用している。
しかし、このようなアプローチは必然的にレコメンデーション結果と生成された応答の相違をもたらす。
このギャップを埋めるために,単一モデルでコンテキスト化知識蒸留(ConKD)を用いて協調的に両方のタスクを学習する統合CRSのためのマルチタスク学習を提案する。
conkdの2つのバージョン、hard gateとsoft gateを紹介します。
前者は2人のタスク固有の教師の間を選択的にゲートし、後者は両方の教師の知識を統合する。
私たちのゲートは、コンテキスト特有の方法でオンザフライで計算され、関連する知識の柔軟な統合が促進されます。
広範な実験により,単一モデルがフラレンシを高めながらレコメンデーション性能を著しく向上し,多様性の観点から同等の結果が得られることが示された。
関連論文リスト
- Multi-Stage Coarse-to-Fine Contrastive Learning for Conversation Intent
Induction [34.25242109800481]
本稿では,第11回対話システム技術チャレンジ(DSTC11)におけるタスク指向対話における会話からのインテントインジェクションの追跡方法について述べる。
意図的クラスタリングの本質は、異なる対話発話の表現を区別することにある。
DSTC11の評価結果では,このトラックの2つのサブタスクのうちの1位が提案システムである。
論文 参考訳(メタデータ) (2023-03-09T04:51:27Z) - Variational Reasoning over Incomplete Knowledge Graphs for
Conversational Recommendation [48.70062671767362]
不完全KGs会話レコメンダ(VRICR)に対する変分推論を提案する。
我々のキーとなる考え方は、CRSを伴って自然に大きな対話コーパスを組み込んで、不完全なKGを強化することである。
また、KGsの対話特化部分グラフを適応的知識グラフの分類的先行を持つ潜在変数として表す。
論文 参考訳(メタデータ) (2022-12-22T17:02:21Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - There Is No Standard Answer: Knowledge-Grounded Dialogue Generation with
Adversarial Activated Multi-Reference Learning [29.093220439736527]
KGC(Knowledge-grounded conversation)は、魅力的で情報的な応答を提供する優れた可能性を示している。
既存のアプローチでは、対話における1対1の現象を見越して、特定の対話コンテキストに与えられた1つの黄金の知識を選択することを強調する。
既存のKGCモデルの1対1の有効性を体系的に評価するための一連の指標を提案する。
論文 参考訳(メタデータ) (2022-10-22T14:43:33Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - Towards Unified Conversational Recommender Systems via
Knowledge-Enhanced Prompt Learning [89.64215566478931]
会話レコメンデータシステム(CRS)は,ユーザの嗜好を積極的に取り入れ,自然言語会話を通じて高品質な項目を推薦することを目的としている。
効果的なCRSを開発するためには、2つのモジュールをシームレスに統合することが不可欠である。
知識強調学習に基づく統一CRSモデルUniCRSを提案する。
論文 参考訳(メタデータ) (2022-06-19T09:21:27Z) - Two-Level Supervised Contrastive Learning for Response Selection in
Multi-Turn Dialogue [18.668723854662584]
本稿では,教師付きコントラスト損失を用いたコントラスト学習を課題に適用する。
我々は,2段階の教師付きコントラスト学習と呼ばれる,教師付きコントラスト学習の新しい手法を開発した。
論文 参考訳(メタデータ) (2022-03-01T23:43:36Z) - Improving Conversational Recommender Systems via Knowledge Graph based
Semantic Fusion [77.21442487537139]
対話型レコメンデータシステム(CRS)は,対話型対話を通じて高品質なアイテムをユーザに推薦することを目的としている。
まず、会話データ自体にユーザの好みを正確に理解するための十分なコンテキスト情報がない。
第二に、自然言語表現とアイテムレベルのユーザ嗜好の間には意味的なギャップがある。
論文 参考訳(メタデータ) (2020-07-08T11:14:23Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。