論文の概要: Are Large Language Models Really Effective for Training-Free Cold-Start Recommendation?
- arxiv url: http://arxiv.org/abs/2512.13001v1
- Date: Mon, 15 Dec 2025 05:47:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.546144
- Title: Are Large Language Models Really Effective for Training-Free Cold-Start Recommendation?
- Title(参考訳): 大規模言語モデルは、トレーニング不要のコールドスタート勧告に本当に有効か?
- Authors: Genki Kusano, Kenya Abe, Kunihiro Takeoka,
- Abstract要約: 本研究は、タスク固有のトレーニングを行わない、トレーニング不要のレコメンデーションに焦点を当てる。
大規模言語モデル(LLM)は近年,将来性のあるソリューションとして研究され,多くの研究が提案されている。
本稿では,これら2つのアプローチを同一設定で体系的に評価する最初の制御実験について述べる。
- 参考スコア(独自算出の注目度): 3.446483216812751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems usually rely on large-scale interaction data to learn from users' past behaviors and make accurate predictions. However, real-world applications often face situations where no training data is available, such as when launching new services or handling entirely new users. In such cases, conventional approaches cannot be applied. This study focuses on training-free recommendation, where no task-specific training is performed, and particularly on \textit{training-free cold-start recommendation} (TFCSR), the more challenging case where the target user has no interactions. Large language models (LLMs) have recently been explored as a promising solution, and numerous studies have been proposed. As the ability of text embedding models (TEMs) increases, they are increasingly recognized as applicable to training-free recommendation, but no prior work has directly compared LLMs and TEMs under identical conditions. We present the first controlled experiments that systematically evaluate these two approaches in the same setting. The results show that TEMs outperform LLM rerankers, and this trend holds not only in cold-start settings but also in warm-start settings with rich interactions. These findings indicate that direct LLM ranking is not the only viable option, contrary to the commonly shared belief, and TEM-based approaches provide a stronger and more scalable basis for training-free recommendation.
- Abstract(参考訳): レコメンダシステムは、通常、ユーザの過去の振る舞いから学び、正確な予測を行うために、大規模なインタラクションデータに依存する。
しかし、現実世界のアプリケーションは、新しいサービスを立ち上げたり、全く新しいユーザーを扱う場合など、トレーニングデータがない状況に直面することが多い。
このような場合、従来の手法は適用できない。
本研究は,タスク固有のトレーニングを行わないトレーニングフリーレコメンデーション(TFCSR)に焦点をあて,特に,対象ユーザとのインタラクションが存在しない場合の課題である,‘textit{training-free cold-start recommendation}’(TFCSR)に焦点をあてる。
大規模言語モデル(LLM)は近年,将来性のあるソリューションとして研究され,多くの研究が提案されている。
テキスト埋め込みモデル(TEM)の能力が向上するにつれて、これらはトレーニング不要の勧告に適用可能であると認識されるようになるが、LLMとTEMを同一条件下で直接比較する以前の研究は行われていない。
本稿では,これら2つのアプローチを同一設定で体系的に評価する最初の制御実験について述べる。
その結果、TEMはLLMリランカよりも優れており、この傾向はコールドスタート設定だけでなく、リッチな相互作用を伴うウォームスタート設定でも持続することがわかった。
これらの結果から, 直接LLMランキングは一般的に共有されている信念に反する唯一の選択肢ではなく, TEMベースのアプローチは, トレーニング不要の推奨に対してより強く, よりスケーラブルな基盤を提供することを示している。
関連論文リスト
- LLM Reasoning for Cold-Start Item Recommendation [11.180516000970528]
大規模言語モデル(LLM)はレコメンデーションシステムを改善する重要な可能性を示している。
我々はNetflixドメイン内で、コールドスタートアイテムレコメンデーション用に設計された新しい推論戦略を提案する。
提案手法は,LLMの高度な推論機能を利用してユーザの好みを効果的に推測する。
論文 参考訳(メタデータ) (2025-11-23T03:22:53Z) - Towards a Real-World Aligned Benchmark for Unlearning in Recommender Systems [49.766845975588275]
推薦システムにおける非学習のためのより現実的なベンチマークの開発を導くために,設計デシダータと研究質問のセットを提案する。
我々は、現実世界の削除要求の逐次的で時間に敏感な性質を反映した、未学習のセットアップについて論じる。
本稿では,提案したdesiderataをベースとした次世代レコメンデーションセッティングの予備実験を行い,アンラーニングが逐次レコメンデーションモデルにも有効であることを確認した。
論文 参考訳(メタデータ) (2025-08-23T16:05:40Z) - AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
我々はAutoElicitを導入し、大規模言語モデルから知識を抽出し、予測モデルのための事前構築を行う。
これらの先行情報は情報的であり、自然言語を用いて洗練できることを示す。
AutoElicitは、非形式的な事前よりもエラーを大幅に減らし、ラベルを減らし、コンテクスト内学習を一貫して上回ります。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - Real-Time Personalization for LLM-based Recommendation with Customized In-Context Learning [57.28766250993726]
この研究は、モデル更新なしに動的なユーザ関心に適応することを検討する。
既存のLarge Language Model (LLM)ベースのレコメンダは、レコメンデーションチューニング中にコンテキスト内学習能力を失うことが多い。
本稿では,レコメンデーション固有のインコンテキスト学習をリアルタイムレコメンデーションにカスタマイズするRecICLを提案する。
論文 参考訳(メタデータ) (2024-10-30T15:48:36Z) - STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
現在の最先端の手法は、最適な結果を得るために微調整された大規模言語モデル(LLM)に依存している。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
The method achieves Hits@10 performance of +23.8% on Beauty, +37.5% on Toys & Games, and -1.8% on Sports & Outdoors。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - A Social-aware Gaussian Pre-trained Model for Effective Cold-start
Recommendation [25.850274659792305]
グラフニューラルネットワーク(GNN)の事前学習段階におけるユーザ関係とインタラクションデータを符号化する新しい推薦モデルであるSGP(Social-Aware Gaussian Pre-trained Model)を提案する。
NDCG@10では,3つの公開データセットに対する実験の結果,SGPモデルは16の競争ベースラインと比較して,最大7.7%の精度で最高のベースラインを達成できた。
さらに,SGPは,特にユーザが友人の提案によってシステムに新規に登録する場合に,コールドスタート問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2023-11-27T13:04:33Z) - Is Meta-Learning the Right Approach for the Cold-Start Problem in
Recommender Systems? [5.804718528857615]
メタラーニング技術を用いることなく、コールドスタート問題に対してよく使われるベンチマークにおいて、類似またはそれ以上の性能が得られることを示す。
さらに、共通表現学習技術を用いた極めて単純なモジュラーアプローチは、コールドスタート設定に特化して設計されたメタラーニング技術と相容れないことが示される。
論文 参考訳(メタデータ) (2023-08-16T13:24:47Z) - Meta-Learning with Adaptive Weighted Loss for Imbalanced Cold-Start
Recommendation [4.379304291229695]
本稿では,勾配に基づくメタラーニングに基づく新しいシーケンシャルレコメンデーションフレームワークを提案する。
私たちの仕事は、コールドスタートシーケンシャルなレコメンデーションシナリオにおいて、不均衡な評価の影響に最初に取り組みます。
論文 参考訳(メタデータ) (2023-02-28T15:18:42Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。