論文の概要: Enhancing Conversational Recommender Systems with Tree-Structured Knowledge and Pretrained Language Models
- arxiv url: http://arxiv.org/abs/2511.12579v1
- Date: Sun, 16 Nov 2025 12:44:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.388435
- Title: Enhancing Conversational Recommender Systems with Tree-Structured Knowledge and Pretrained Language Models
- Title(参考訳): 木構造知識と事前学習言語モデルを用いた会話レコメンダシステムの構築
- Authors: Yongwen Ren, Chao Wang, Peng Du, Chuan Qin, Dazhong Shen, Hui Xiong,
- Abstract要約: PCRS-TKA(PCRS-TKA)は、PLMとKGを統合するために、検索拡張生成を利用するプロンプトベースのフレームワークである。
対話固有の知識ツリーをKGから構築し、それらをテキストにシリアライズすることで、構造認識推論を可能にする。
推奨品質と会話品質の両方において、すべてのベースラインを一貫して上回ります。
- 参考スコア(独自算出の注目度): 24.415830340607783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in pretrained language models (PLMs) have significantly improved conversational recommender systems (CRS), enabling more fluent and context-aware interactions. To further enhance accuracy and mitigate hallucination, many methods integrate PLMs with knowledge graphs (KGs), but face key challenges: failing to fully exploit PLM reasoning over graph relationships, indiscriminately incorporating retrieved knowledge without context filtering, and neglecting collaborative preferences in multi-turn dialogues. To this end, we propose PCRS-TKA, a prompt-based framework employing retrieval-augmented generation to integrate PLMs with KGs. PCRS-TKA constructs dialogue-specific knowledge trees from KGs and serializes them into texts, enabling structure-aware reasoning while capturing rich entity semantics. Our approach selectively filters context-relevant knowledge and explicitly models collaborative preferences using specialized supervision signals. A semantic alignment module harmonizes heterogeneous inputs, reducing noise and enhancing accuracy. Extensive experiments demonstrate that PCRS-TKA consistently outperforms all baselines in both recommendation and conversational quality.
- Abstract(参考訳): プレトレーニング言語モデル(PLM)の最近の進歩は、会話レコメンデーションシステム(CRS)を大幅に改善し、より流動的でコンテキスト対応な対話を可能にした。
精度をさらに高め、幻覚を緩和するために、多くの手法が知識グラフ(KG)とPLMを統合するが、グラフ関係上のPLM推論を完全に活用できないこと、文脈フィルタリングなしで取得した知識を無差別に取り入れること、マルチターン対話における協調的な嗜好を無視すること、といった大きな課題に直面している。
そこで本研究では,PCRS-TKAを提案する。
PCRS-TKAは、KGから対話固有の知識ツリーを構築し、それらをテキストにシリアライズすることで、リッチなエンティティセマンティクスをキャプチャしながら構造を意識した推論を可能にする。
提案手法は文脈関連知識を選択的にフィルタリングし、特別な監視信号を用いて協調的嗜好を明示的にモデル化する。
セマンティックアライメントモジュールは、異種入力を調和させ、ノイズを低減し、精度を高める。
大規模な実験により、PCRS-TKAは、推奨品質と会話品質の両方において、全てのベースラインを一貫して上回っていることが示された。
関連論文リスト
- Graph Retrieval-Augmented LLM for Conversational Recommendation Systems [52.35491420330534]
G-CRS(Graph Retrieval-Augmented Large Language Model for Conversational Recommender Systems)は、グラフ検索強化世代とテキスト内学習を組み合わせた学習自由フレームワークである。
G-CRSは、タスク固有のトレーニングを必要とせず、既存の手法よりも優れたレコメンデーション性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T03:56:22Z) - Reasoning over User Preferences: Knowledge Graph-Augmented LLMs for Explainable Conversational Recommendations [58.61021630938566]
対話型レコメンデーションシステム(CRS)は,対話型対話を通じてユーザの好みを捉え,パーソナライズされたレコメンデーションを提供することを目的としている。
現在のCRSは、しばしば知識グラフ(KG)や言語モデルを利用して、ユーザの好みを潜在ベクトルとして抽出し、表現し、説明可能性を制限する。
本稿では,LCMとKGを相乗化してユーザの好みを推論し,既存のCRSの性能と説明可能性を高めるプラグイン・アンド・プレイ・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-16T11:47:21Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Variational Reasoning over Incomplete Knowledge Graphs for
Conversational Recommendation [48.70062671767362]
不完全KGs会話レコメンダ(VRICR)に対する変分推論を提案する。
我々のキーとなる考え方は、CRSを伴って自然に大きな対話コーパスを組み込んで、不完全なKGを強化することである。
また、KGsの対話特化部分グラフを適応的知識グラフの分類的先行を持つ潜在変数として表す。
論文 参考訳(メタデータ) (2022-12-22T17:02:21Z) - Improving Conversational Recommendation Systems' Quality with
Context-Aware Item Meta Information [42.88448098873448]
対話レコメンデーションシステム(CRS)は,対話履歴からユーザの好みを推測することでユーザと対話する。
従来のCRSでは、知識グラフ(KG)ベースのレコメンデーションモジュールを使用し、応答生成のための言語モデルとKGを統合する。
本稿では,事前学習言語モデル(PLM)と項目メタデータエンコーダを組み合わせた,シンプルで効果的なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-15T14:12:48Z) - Finetuning Large-Scale Pre-trained Language Models for Conversational
Recommendation with Knowledge Graph [35.033130888779226]
RID会話推薦システム(CRS)と呼ばれる事前学習言語モデル(PLM)に基づくフレームワークを提案する。
RIDは、対話の評価とレコメンデーションの両方において最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2021-10-14T15:49:48Z) - Improving Conversational Recommender Systems via Knowledge Graph based
Semantic Fusion [77.21442487537139]
対話型レコメンデータシステム(CRS)は,対話型対話を通じて高品質なアイテムをユーザに推薦することを目的としている。
まず、会話データ自体にユーザの好みを正確に理解するための十分なコンテキスト情報がない。
第二に、自然言語表現とアイテムレベルのユーザ嗜好の間には意味的なギャップがある。
論文 参考訳(メタデータ) (2020-07-08T11:14:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。