論文の概要: CARE: Contextual Adaptation of Recommenders for LLM-based Conversational Recommendation
- arxiv url: http://arxiv.org/abs/2508.13889v1
- Date: Tue, 19 Aug 2025 14:53:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.964137
- Title: CARE: Contextual Adaptation of Recommenders for LLM-based Conversational Recommendation
- Title(参考訳): CARE:LLMに基づく会話レコメンデーションのためのレコメンデーションの文脈適応
- Authors: Chuang Li, Yang Deng, Hengchang Hu, See-Kiong Ng, Min-Yen Kan, Haizhou Li,
- Abstract要約: CARE(Contextual Adaptation of Recommenders)フレームワークを紹介します。
CAREはCRSタスクのために大きな言語モデルをカスタマイズし、それらを外部レコメンデーションシステムでシナジする。
本研究では,外部レコメンデータシステムとエンティティレベルの情報を統合することで,CRSのレコメンデーション精度を大幅に向上させることを示す。
- 参考スコア(独自算出の注目度): 66.51329063956538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We tackle the challenge of integrating large language models (LLMs) with external recommender systems to enhance domain expertise in conversational recommendation (CRS). Current LLM-based CRS approaches primarily rely on zero- or few-shot methods for generating item recommendations based on user queries, but this method faces two significant challenges: (1) without domain-specific adaptation, LLMs frequently recommend items not in the target item space, resulting in low recommendation accuracy; and (2) LLMs largely rely on dialogue context for content-based recommendations, neglecting the collaborative relationships among entities or item sequences. To address these limitations, we introduce the CARE (Contextual Adaptation of Recommenders) framework. CARE customizes LLMs for CRS tasks, and synergizes them with external recommendation systems. CARE (a) integrates external recommender systems as domain experts, producing recommendations through entity-level insights, and (b) enhances those recommendations by leveraging contextual information for more accurate and unbiased final recommendations using LLMs. Our results demonstrate that incorporating external recommender systems with entity-level information significantly enhances recommendation accuracy of LLM-based CRS by an average of 54% and 25% for ReDial and INSPIRED datasets. The most effective strategy in the CARE framework involves LLMs selecting and reranking candidate items that external recommenders provide based on contextual insights. Our analysis indicates that the CARE framework effectively addresses the identified challenges and mitigates the popularity bias in the external recommender.
- Abstract(参考訳): 我々は,対話レコメンデーション(CRS)におけるドメインの専門知識を高めるために,大規模言語モデル(LLM)と外部レコメンデーションシステムを統合するという課題に取り組む。
現在のLCMベースのCRSアプローチは、主にユーザクエリに基づいてアイテムレコメンデーションを生成するゼロまたは少ショットの手法に頼っているが、この手法は、(1)ドメイン固有の適応がなければ、LSMはターゲットアイテム空間にないアイテムを頻繁に推奨し、推奨精度が低く、(2)LCMはコンテンツベースのレコメンデーションの会話コンテキストに大きく依存し、エンティティやアイテムシーケンス間の協調関係を無視する、という2つの大きな課題に直面している。
これらの制限に対処するため、CARE(Contextual Adaptation of Recommenders)フレームワークを導入します。
CAREはCRSタスク用にLLMをカスタマイズし、外部レコメンデーションシステムと同期する。
CARE
(a)外部レコメンデータシステムをドメインエキスパートとして統合し、エンティティレベルの洞察を通じてレコメンデーションを生成する。
b)LLMを用いたより正確で偏りのない最終レコメンデーションに文脈情報を活用することにより,これらのレコメンデーションを強化する。
その結果,エンティティレベルの情報に外部レコメンダシステムを組み込むことで,ReDialデータセットとINSPIREDデータセットの54%と25%でLCMベースのCRSのレコメンデーション精度が大幅に向上することが示された。
CAREフレームワークの最も効果的な戦略は、文脈的洞察に基づいて外部レコメンデータが提供する候補項目を選択し、再配置することである。
分析の結果、CAREフレームワークは特定した課題に効果的に対処し、外部レコメンデーションにおける人気バイアスを軽減することが示唆された。
関連論文リスト
- Towards Comprehensible Recommendation with Large Language Model Fine-tuning [41.218487308635126]
本稿では,コラボレーティブ・パースペクティブ・フレームワーク(CURec)によるレコメンデーションシステムのための新しいコンテンツ理解手法を提案する。
Curecは、より包括的なレコメンデーションのために、協調的なコンテンツ機能を生成する。
公開ベンチマークの実験では、既存の方法よりもCURecの方が優れていることが示されている。
論文 参考訳(メタデータ) (2025-08-11T03:55:31Z) - Graph Retrieval-Augmented LLM for Conversational Recommendation Systems [52.35491420330534]
G-CRS(Graph Retrieval-Augmented Large Language Model for Conversational Recommender Systems)は、グラフ検索強化世代とテキスト内学習を組み合わせた学習自由フレームワークである。
G-CRSは、タスク固有のトレーニングを必要とせず、既存の手法よりも優れたレコメンデーション性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T03:56:22Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - Direct Preference Optimization for LLM-Enhanced Recommendation Systems [33.54698201942643]
大規模言語モデル(LLM)は、幅広い領域で顕著なパフォーマンスを示している。
我々は,DPOをLLM強化レコメンデーションシステムに統合するフレームワークであるDPO4Recを提案する。
大規模な実験により、DPO4Recは強いベースラインよりも性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-10-08T11:42:37Z) - LANE: Logic Alignment of Non-tuning Large Language Models and Online Recommendation Systems for Explainable Reason Generation [15.972926854420619]
大きな言語モデル(LLM)を活用することで、包括的なレコメンデーションロジック生成の新しい機会を提供する。
レコメンデーションタスクのための微調整LDMモデルは、計算コストと既存のシステムとのアライメントの問題を引き起こす。
本研究は,LLMとオンラインレコメンデーションシステムとの連携を,LLMのチューニングを伴わない効果的戦略LANEを提案する。
論文 参考訳(メタデータ) (2024-07-03T06:20:31Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。