論文の概要: Enhance Large Language Models as Recommendation Systems with Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2510.15647v1
- Date: Fri, 17 Oct 2025 13:35:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.636495
- Title: Enhance Large Language Models as Recommendation Systems with Collaborative Filtering
- Title(参考訳): 協調フィルタリングを用いた推薦システムとしての大規模言語モデルの構築
- Authors: Zhisheng Yang, Xiaofei Xu, Ke Deng, Li Li,
- Abstract要約: 本研究は、レコメンデーションシステム(Critic-LLM-RS)として、批評に基づく大規模言語モデル(LLM)を提案する。
Critic-LLM-RSは、多くのユーザとアイテム間のインタラクションから学習することで、コラボレーティブなフィルタリングを実装している。
実データセットに対するCritic-LLM-RSの有効性を検証した。
- 参考スコア(独自算出の注目度): 9.697791766151958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As powerful tools in Natural Language Processing (NLP), Large Language Models (LLMs) have been leveraged for crafting recommendations to achieve precise alignment with user preferences and elevate the quality of the recommendations. The existing approaches implement both non-tuning and tuning strategies. Compared to following the tuning strategy, the approaches following the non-tuning strategy avoid the relatively costly, time-consuming, and expertise-requiring process of further training pre-trained LLMs on task-specific datasets, but they suffer the issue of not having the task-specific business or local enterprise knowledge. To the best of our knowledge, none of the existing approaches following the non-tuning strategy explicitly integrates collaborative filtering, one of the most successful recommendation techniques. This study aims to fill the gap by proposing critique-based LLMs as recommendation systems (Critic-LLM-RS). For our purpose, we train a separate machine-learning model called Critic that implements collaborative filtering for recommendations by learning from the interactions between many users and items. The Critic provides critiques to LLMs to significantly refine the recommendations. Extensive experiments have verified the effectiveness of Critic-LLM-RS on real datasets.
- Abstract(参考訳): 自然言語処理(NLP)の強力なツールとして、Large Language Models(LLM)が推奨事項の作成に利用され、ユーザの好みと正確に一致し、推奨項目の品質を高める。
既存のアプローチでは、非チューニング戦略とチューニング戦略の両方を実装している。
チューニング戦略に従う場合と比較して、非チューニング戦略に従うアプローチは、タスク固有のデータセット上でトレーニング済みのLLMをさらに訓練する比較的コストがかかり、時間がかかり、専門知識が要求されるプロセスを避けるが、タスク固有のビジネスやローカルな企業知識を持たないという問題に悩まされる。
我々の知る限りでは、非チューニング戦略に従う既存のアプローチのどれも、最も成功した推奨手法である協調フィルタリングを明示的に統合していません。
本研究の目的は,レコメンデーションシステム (Critic-LLM-RS) として批判に基づくLLMを提案し,そのギャップを埋めることである。
私たちの目的のために、多くのユーザとアイテム間のインタラクションから学習することで、コラボレーティブなフィルタリングを実装するCriticという別の機械学習モデルをトレーニングしています。
批評家は、レコメンデーションを格段に洗練させるためにLLMに批評を提供している。
大規模な実験により、実際のデータセットに対するCritic-LLM-RSの有効性が検証された。
関連論文リスト
- Reinforced Strategy Optimization for Conversational Recommender Systems via Network-of-Experts [63.412646471177645]
会話レコメンダシステム(CRS)のための新しい強化戦略最適化(RSO)手法を提案する。
RSOは、戦略駆動型応答決定をマクロレベルの戦略計画とマイクロレベルの戦略適応に分解する。
実験の結果, RSOは最先端のベースラインと比較して, インタラクション性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-09-30T11:12:01Z) - CARE: Contextual Adaptation of Recommenders for LLM-based Conversational Recommendation [66.51329063956538]
CARE(Contextual Adaptation of Recommenders)フレームワークを紹介します。
CAREはCRSタスクのために大きな言語モデルをカスタマイズし、それらを外部レコメンデーションシステムでシナジする。
本研究では,外部レコメンデータシステムとエンティティレベルの情報を統合することで,CRSのレコメンデーション精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2025-08-19T14:53:30Z) - Large Language Model-Enhanced Reinforcement Learning for Diverse and Novel Recommendations [6.949170757786365]
本稿では,LAAC (LLM-guided Adversarial Actor Critic) を提案する。
LAACは、不均衡なデータに頑健でありながら、多様性、ノベルティ、正確性において既存のベースラインを上回ります。
論文 参考訳(メタデータ) (2025-07-28T19:00:40Z) - Enhanced Recommendation Combining Collaborative Filtering and Large Language Models [0.0]
大規模言語モデル(LLM)はレコメンデーションシステムに新たなブレークスルーを提供する。
本稿では,協調フィルタリングとLLMを組み合わせたレコメンデーション手法を提案する。
その結果,協調フィルタリングとLCMに基づくハイブリッドモデルは,精度,リコール,ユーザ満足度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-12-25T00:23:53Z) - STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
現在の最先端の手法は、最適な結果を得るために微調整された大規模言語モデル(LLM)に依存している。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
The method achieves Hits@10 performance of +23.8% on Beauty, +37.5% on Toys & Games, and -1.8% on Sports & Outdoors。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - LANE: Logic Alignment of Non-tuning Large Language Models and Online Recommendation Systems for Explainable Reason Generation [15.972926854420619]
大きな言語モデル(LLM)を活用することで、包括的なレコメンデーションロジック生成の新しい機会を提供する。
レコメンデーションタスクのための微調整LDMモデルは、計算コストと既存のシステムとのアライメントの問題を引き起こす。
本研究は,LLMとオンラインレコメンデーションシステムとの連携を,LLMのチューニングを伴わない効果的戦略LANEを提案する。
論文 参考訳(メタデータ) (2024-07-03T06:20:31Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。