論文の概要: Finetuning Large-Scale Pre-trained Language Models for Conversational
Recommendation with Knowledge Graph
- arxiv url: http://arxiv.org/abs/2110.07477v1
- Date: Thu, 14 Oct 2021 15:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 13:53:38.335643
- Title: Finetuning Large-Scale Pre-trained Language Models for Conversational
Recommendation with Knowledge Graph
- Title(参考訳): 知識グラフを用いた会話推薦のための大規模事前学習言語モデル
- Authors: Lingzhi Wang, Huang Hu, Lei Sha, Can Xu, Kam-Fai Wong, Daxin Jiang
- Abstract要約: RID会話推薦システム(CRS)と呼ばれる事前学習言語モデル(PLM)に基づくフレームワークを提案する。
RIDは、対話の評価とレコメンデーションの両方において最先端の手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 35.033130888779226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a pre-trained language model (PLM) based framework
called RID for conversational recommender system (CRS). RID finetunes the
large-scale PLMs such as DialoGPT, together with a pre-trained Relational Graph
Convolutional Network (RGCN) to encode the node representations of an
item-oriented knowledge graph. The former aims to generate fluent and diverse
dialogue responses based on the strong language generation ability of PLMs,
while the latter is to facilitate the item recommendation by learning better
node embeddings on the structural knowledge base. To unify two modules of
dialogue generation and item recommendation into a PLMs-based framework, we
expand the generation vocabulary of PLMs to include an extra item vocabulary,
and introduces a vocabulary pointer to control when to recommend target items
in the generation process. Extensive experiments on the benchmark dataset
ReDial show RID significantly outperforms the state-of-the-art methods on both
evaluations of dialogue and recommendation.
- Abstract(参考訳): 本稿では,会話推薦システム(CRS)のための事前学習言語モデル(PLM)に基づくフレームワーク RID を提案する。
RIDは、DialoGPTなどの大規模PLMとRGCN(Relational Graph Convolutional Network)を併用して、アイテム指向の知識グラフのノード表現を符号化する。
前者はplmの強力な言語生成能力に基づく多種多様な対話応答の生成を目標とし、後者は構造的知識ベースによりよいノード埋め込みを学習することでアイテム推薦を促進する。
対話生成とアイテムレコメンデーションの2つのモジュールをplmsベースのフレームワークに統合するために、plmの生成語彙を追加項目語彙を含むように拡張し、生成プロセスで目標項目を推奨するタイミングを制御する語彙ポインタを導入する。
ベンチマークデータセットReDialでの大規模な実験では、RIDは対話評価とレコメンデーションの両方において最先端の手法よりも大幅に優れていた。
関連論文リスト
- Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback [50.84142264245052]
テキストレス音声言語モデル(SLM)のセマンティック理解を強化するためのAlign-SLMフレームワークを導入する。
提案手法は、与えられたプロンプトから複数の音声継続を生成し、意味的指標を用いて、直接選好最適化(DPO)のための選好データを生成する。
語彙および構文モデリングのためのZeroSpeech 2021ベンチマーク、意味的コヒーレンスのためのStoryClozeデータセットの音声バージョン、GPT4-oスコアや人間評価などの音声生成指標を用いて、フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-11-04T06:07:53Z) - Enhancing Collaborative Semantics of Language Model-Driven Recommendations via Graph-Aware Learning [10.907949155931474]
大規模言語モデル(LLM)は、レコメンデーションシステムドメインにおいてますます顕著になっている。
Gal-Recは、グラフニューラルネットワーク(GNN)の意図を模倣することで、ユーザとイテムの協調的意味論の理解を強化する
Gal-Recはコラボレーティブセマンティクスの理解を大幅に強化し、レコメンデーションパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-06-19T05:50:15Z) - Parameter-Efficient Conversational Recommender System as a Language
Processing Task [52.47087212618396]
会話レコメンデータシステム(CRS)は,自然言語会話を通じてユーザの嗜好を喚起することで,ユーザに対して関連項目を推薦することを目的としている。
先行作業では、アイテムのセマンティック情報、対話生成のための言語モデル、関連する項目のランク付けのためのレコメンデーションモジュールとして、外部知識グラフを利用することが多い。
本稿では、自然言語の項目を表現し、CRSを自然言語処理タスクとして定式化する。
論文 参考訳(メタデータ) (2024-01-25T14:07:34Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z) - Towards Unified Conversational Recommender Systems via
Knowledge-Enhanced Prompt Learning [89.64215566478931]
会話レコメンデータシステム(CRS)は,ユーザの嗜好を積極的に取り入れ,自然言語会話を通じて高品質な項目を推薦することを目的としている。
効果的なCRSを開発するためには、2つのモジュールをシームレスに統合することが不可欠である。
知識強調学習に基づく統一CRSモデルUniCRSを提案する。
論文 参考訳(メタデータ) (2022-06-19T09:21:27Z) - Improving Conversational Recommendation Systems' Quality with
Context-Aware Item Meta Information [42.88448098873448]
対話レコメンデーションシステム(CRS)は,対話履歴からユーザの好みを推測することでユーザと対話する。
従来のCRSでは、知識グラフ(KG)ベースのレコメンデーションモジュールを使用し、応答生成のための言語モデルとKGを統合する。
本稿では,事前学習言語モデル(PLM)と項目メタデータエンコーダを組み合わせた,シンプルで効果的なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-15T14:12:48Z) - DialogBERT: Discourse-Aware Response Generation via Learning to Recover
and Rank Utterances [18.199473005335093]
本稿では,従来の PLM に基づく対話モデルを強化した対話応答生成モデルである DialogBERT を提案する。
発話間の談話レベルのコヒーレンスを効果的に把握するために,マスク付き発話回帰を含む2つの訓練目標を提案する。
3つのマルチターン会話データセットの実験により、我々のアプローチがベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2020-12-03T09:06:23Z) - Improving Conversational Recommender Systems via Knowledge Graph based
Semantic Fusion [77.21442487537139]
対話型レコメンデータシステム(CRS)は,対話型対話を通じて高品質なアイテムをユーザに推薦することを目的としている。
まず、会話データ自体にユーザの好みを正確に理解するための十分なコンテキスト情報がない。
第二に、自然言語表現とアイテムレベルのユーザ嗜好の間には意味的なギャップがある。
論文 参考訳(メタデータ) (2020-07-08T11:14:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。