論文の概要: LLM Reasoning for Cold-Start Item Recommendation
- arxiv url: http://arxiv.org/abs/2511.18261v1
- Date: Sun, 23 Nov 2025 03:22:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.729166
- Title: LLM Reasoning for Cold-Start Item Recommendation
- Title(参考訳): コールドスタートアイテムレコメンデーションのためのLDM推論
- Authors: Shijun Li, Yu Wang, Jin Wang, Ying Li, Joydeep Ghosh, Anne Cocos,
- Abstract要約: 大規模言語モデル(LLM)はレコメンデーションシステムを改善する重要な可能性を示している。
我々はNetflixドメイン内で、コールドスタートアイテムレコメンデーション用に設計された新しい推論戦略を提案する。
提案手法は,LLMの高度な推論機能を利用してユーザの好みを効果的に推測する。
- 参考スコア(独自算出の注目度): 11.180516000970528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown significant potential for improving recommendation systems through their inherent reasoning capabilities and extensive knowledge base. Yet, existing studies predominantly address warm-start scenarios with abundant user-item interaction data, leaving the more challenging cold-start scenarios, where sparse interactions hinder traditional collaborative filtering methods, underexplored. To address this limitation, we propose novel reasoning strategies designed for cold-start item recommendations within the Netflix domain. Our method utilizes the advanced reasoning capabilities of LLMs to effectively infer user preferences, particularly for newly introduced or rarely interacted items. We systematically evaluate supervised fine-tuning, reinforcement learning-based fine-tuning, and hybrid approaches that combine both methods to optimize recommendation performance. Extensive experiments on real-world data demonstrate significant improvements in both methodological efficacy and practical performance in cold-start recommendation contexts. Remarkably, our reasoning-based fine-tuned models outperform Netflix's production ranking model by up to 8% in certain cases.
- Abstract(参考訳): 大規模言語モデル(LLM)は、その固有の推論能力と広範な知識ベースを通じてレコメンデーションシステムを改善する大きな可能性を示している。
しかし、既存の研究では、ユーザとイテムのインタラクションデータが豊富にあるウォームスタートシナリオに主に対処しており、スパースインタラクションが従来の協調フィルタリング手法を妨げている、より困難なコールドスタートシナリオを残している。
この制限に対処するため、Netflixドメイン内でのコールドスタートアイテムレコメンデーション用に設計された新しい推論戦略を提案する。
提案手法は, LLMの高度な推論機能を利用して, ユーザの嗜好, 特に新しく導入された, めったに相互作用しない項目を効果的に推測する。
我々は,教師付き微調整,強化学習に基づく微調整,ハイブリッドアプローチを体系的に評価し,両方の手法を組み合わせて推奨性能を最適化する。
実世界のデータに対する大規模な実験は、コールドスタートレコメンデーションの文脈において、方法論的効果と実用性の両方に大きな改善が示される。
注目すべきは、当社の推論ベースの微調整モデルが、Netflixの製品ランキングモデルを上回っていることです。
関連論文リスト
- DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - From Reviews to Dialogues: Active Synthesis for Zero-Shot LLM-based Conversational Recommender System [49.57258257916805]
大きな言語モデル(LLM)は強力なゼロショットレコメンデーション機能を示している。
現実的なアプリケーションは、スケーラビリティ、解釈可能性、データプライバシの制約により、より小さく、内部的に管理された推奨モデルを好むことが多い。
能動学習技術によって導かれるブラックボックスLSMを利用して,会話学習データを合成する能動データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-21T23:05:47Z) - Enhanced Recommendation Combining Collaborative Filtering and Large Language Models [0.0]
大規模言語モデル(LLM)はレコメンデーションシステムに新たなブレークスルーを提供する。
本稿では,協調フィルタリングとLLMを組み合わせたレコメンデーション手法を提案する。
その結果,協調フィルタリングとLCMに基づくハイブリッドモデルは,精度,リコール,ユーザ満足度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-12-25T00:23:53Z) - STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
現在の最先端の手法は、最適な結果を得るために微調整された大規模言語モデル(LLM)に依存している。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
The method achieves Hits@10 performance of +23.8% on Beauty, +37.5% on Toys & Games, and -1.8% on Sports & Outdoors。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System [19.8986219047121]
協調フィルタリング推薦システム (CF-RecSys) は, ソーシャルメディアやeコマースプラットフォーム上でのユーザエクスペリエンス向上に成功している。
近年の戦略は、事前訓練されたモダリティエンコーダと大規模言語モデルに基づくユーザ/イテムのモダリティ情報の活用に重点を置いている。
コールドシナリオだけでなく、ウォームシナリオにおいても優れたA-LLMRecと呼ばれる全周LCMベースのレコメンダシステムを提案する。
論文 参考訳(メタデータ) (2024-04-17T13:03:07Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。