論文の概要: Do LLMs Benefit from User and Item Embeddings in Recommendation Tasks?
- arxiv url: http://arxiv.org/abs/2601.04690v1
- Date: Thu, 08 Jan 2026 07:58:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.091771
- Title: Do LLMs Benefit from User and Item Embeddings in Recommendation Tasks?
- Title(参考訳): LLMは推奨タスクにおけるユーザとアイテムの埋め込みに相応しいか?
- Authors: Mir Rayat Imtiaz Hossain, Leo Feng, Leonid Sigal, Mohamed Osama Ahmed,
- Abstract要約: 大型言語モデル (LLM) は有望なレコメンデーションシステムとして登場した。
協調フィルタリングから学習したユーザとアイテムの埋め込みを LLM トークン空間に投影する,シンプルで効果的なソリューションを提案する。
予備的な結果から、この設計は構造化されたユーザとイテムのインタラクションデータを効果的に活用し、テキストのみのLLMベースラインよりもレコメンデーション性能を向上させることが示されている。
- 参考スコア(独自算出の注目度): 28.468343426360708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have emerged as promising recommendation systems, offering novel ways to model user preferences through generative approaches. However, many existing methods often rely solely on text semantics or incorporate collaborative signals in a limited manner, typically using only user or item embeddings. These methods struggle to handle multiple item embeddings representing user history, reverting to textual semantics and neglecting richer collaborative information. In this work, we propose a simple yet effective solution that projects user and item embeddings, learned from collaborative filtering, into the LLM token space via separate lightweight projector modules. A finetuned LLM then conditions on these projected embeddings alongside textual tokens to generate recommendations. Preliminary results show that this design effectively leverages structured user-item interaction data, improves recommendation performance over text-only LLM baselines, and offers a practical path for bridging traditional recommendation systems with modern LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、生成的アプローチを通じてユーザの好みをモデル化する新しい方法を提供する、有望なレコメンデーションシステムとして登場した。
しかし、既存の多くのメソッドはテキストのセマンティクスにのみ依存するか、限られた方法で協調的な信号を組み込む。
これらの手法は、ユーザ履歴を表す複数の項目の埋め込み、テキストのセマンティクスへの回帰、よりリッチなコラボレーティブな情報の無視に苦慮している。
本研究では,協調フィルタリングから学習したユーザとアイテムの埋め込みを,別個の軽量プロジェクタモジュールを介してLLMトークン空間に投影する,シンプルで効果的なソリューションを提案する。
微調整されたLLMは、レコメンデーションを生成するためにテキストトークンとともに、これらのプロジェクションされた埋め込みを条件にします。
予備的な結果から,本設計は構造化されたユーザとイテムのインタラクションデータを効果的に活用し,テキストのみのLLMベースラインよりもレコメンデーション性能を向上させるとともに,従来のレコメンデーションシステムを現代的なLLMでブリッジするための実践的パスを提供する。
関連論文リスト
- HistLLM: A Unified Framework for LLM-Based Multimodal Recommendation with User History Encoding and Compression [33.34435467588446]
HistLLMは、ユーザ履歴を通じてテキストと視覚機能を統合する革新的なフレームワークである。
モジュール (UHEM) は、ユーザ履歴のインタラクションを単一のトークン表現に圧縮する。
提案手法の有効性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2025-04-14T12:01:11Z) - Towards a Unified Paradigm: Integrating Recommendation Systems as a New Language in Large Models [33.02146794292383]
大規模モデルにおける新しい言語としてのレコメンデーションシステム(Integrating Recommendation Systems as a New Language in Large Models)について紹介する。
RSLLMは、従来のレコメンデーションモデルからのIDベースのアイテム埋め込みとテキストアイテムの特徴を組み合わせた独自のプロンプト方式を使用している。
ユーザのシーケンシャルな振る舞いを別の言語として扱い、プロジェクタを使用してID埋め込みとLLMの入力空間を整列する。
論文 参考訳(メタデータ) (2024-12-22T09:08:46Z) - Large Language Model Driven Recommendation [34.45328907249946]
言語主導のレコメンデーションの出現は、リコメンデーションのための自然言語(NL)インタラクションの使用を解放した。
この章では、LLMの一般NL能力が、高度にパーソナライズされたRSを構築する新しい機会を導く方法について論じる。
論文 参考訳(メタデータ) (2024-08-20T15:36:24Z) - Improving LLMs for Recommendation with Out-Of-Vocabulary Tokens [51.584024345378005]
本稿では,Large Language Models (LLMs) ベースのレコメンデータシステムにおいて,ユーザや項目を効果的にトークンする方法を示す。
語彙内トークンに加えて、語彙外トークン(OOV)の役割も強調する。
提案するフレームワークは,様々なダウンストリームレコメンデーションタスクにおいて,既存の最先端メソッドよりも優れている。
論文 参考訳(メタデータ) (2024-06-12T17:59:05Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。