論文の概要: LLMs as Better Recommenders with Natural Language Collaborative Signals: A Self-Assessing Retrieval Approach
- arxiv url: http://arxiv.org/abs/2505.19464v1
- Date: Mon, 26 May 2025 03:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.140829
- Title: LLMs as Better Recommenders with Natural Language Collaborative Signals: A Self-Assessing Retrieval Approach
- Title(参考訳): 自然言語協調信号を用いたより良いレコメンダとしてのLLM:自己評価型検索手法
- Authors: Haoran Xin, Ying Sun, Chao Wang, Weijia Zhang, Hui Xiong,
- Abstract要約: 既存のアプローチでは、ソフトトークンや抽象識別子を使用して、コラボレーション情報(CI)を符号化することが多い。
LLMのセマンティックスペースとの整合性を向上するために,CIを直接自然言語で表現することを提案する。
本稿では,自己評価型協調検索フレームワーク(SCORE)を紹介する。
- 参考スコア(独自算出の注目度): 22.656330484701375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating collaborative information (CI) effectively is crucial for leveraging LLMs in recommendation tasks. Existing approaches often encode CI using soft tokens or abstract identifiers, which introduces a semantic misalignment with the LLM's natural language pretraining and hampers knowledge integration. To address this, we propose expressing CI directly in natural language to better align with LLMs' semantic space. We achieve this by retrieving a curated set of the most relevant user behaviors in natural language form. However, identifying informative CI is challenging due to the complexity of similarity and utility assessment. To tackle this, we introduce a Self-assessing COllaborative REtrieval framework (SCORE) following the retrieve-rerank paradigm. First, a Collaborative Retriever (CAR) is developed to consider both collaborative patterns and semantic similarity. Then, a Self-assessing Reranker (SARE) leverages LLMs' own reasoning to assess and prioritize retrieved behaviors. Finally, the selected behaviors are prepended to the LLM prompt as natural-language CI to guide recommendation. Extensive experiments on two public datasets validate the effectiveness of SCORE in improving LLM-based recommendation.
- Abstract(参考訳): 協調情報(CI)を効果的に組み込むことは、レコメンデーションタスクにおいてLLMを活用する上で重要である。
既存のアプローチでは、ソフトトークンや抽象識別子を使用してCIをエンコードすることが多い。
これを解決するために、LLMのセマンティックスペースとの整合性を改善するために、自然言語でCIを直接表現することを提案する。
我々は、自然言語形式で最も関連性の高いユーザー行動のキュレートされた集合を検索することで、これを実現する。
しかし、類似性とユーティリティアセスメントの複雑さのため、情報的CIを特定することは難しい。
そこで本研究では,自己評価型協調検索フレームワーク(SCORE)を提案する。
まず,コラボレーティブ・レトリバー(CAR)を開発し,協調的パターンと意味的類似性の両方を検討する。
次に、自己評価リランカ(SARE)は、LSM自身の推論を利用して、検索された振る舞いを評価し、優先順位付けする。
最後に、選択された行動はLLMプロンプトに自然言語CIとしてプリプロンプトされ、レコメンデーションがガイドされる。
2つの公開データセットに対する大規模な実験は、LLMベースの推奨を改善するSCOREの有効性を検証する。
関連論文リスト
- Enhancing LLM-based Recommendation through Semantic-Aligned Collaborative Knowledge [25.757451106327167]
SeLLa-RecはCollabs.とLLMsのセマンティック空間間のアライメントの実現に重点を置いている。
このアライメントは効果的な知識融合を促進し、識別ノイズの影響を緩和する。
2つの公開ベンチマークデータセットで実施された実験は、SeLLa-Recが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-14T11:15:30Z) - EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Optimizing Knowledge Integration in Retrieval-Augmented Generation with Self-Selection [72.92366526004464]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) がより正確で信頼性の高い応答を生成するのに有効であることが証明されている。
本稿では,自己選択型RAGフレームワークを提案する。このフレームワークでは,内部パラメトリック知識のみで生成されたペアの応答からLLMを選択できる。
論文 参考訳(メタデータ) (2025-02-10T04:29:36Z) - From Human Annotation to LLMs: SILICON Annotation Workflow for Management Research [13.818244562506138]
LLM(Large Language Models)は、人間のアノテーションに対する費用対効果と効率的な代替手段を提供する。
本稿では、SILICON (Systematic Inference with LLMs for Information Classification and Notation) ワークフローを紹介する。
このワークフローは、人間のアノテーションの確立した原則と、体系的な迅速な最適化とモデル選択を統合している。
論文 参考訳(メタデータ) (2024-12-19T02:21:41Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Re2LLM: Reflective Reinforcement Large Language Model for Session-based Recommendation [23.182787000804407]
セッションベースレコメンデーション(SBR)を強化するための有望なアプローチとして,大規模言語モデル(LLM)が登場している。
本稿では,SBRのための反射強化大言語モデル(Re2LLM)を提案する。
論文 参考訳(メタデータ) (2024-03-25T05:12:18Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。