論文の概要: AMEM4Rec: Leveraging Cross-User Similarity for Memory Evolution in Agentic LLM Recommenders
- arxiv url: http://arxiv.org/abs/2602.08837v1
- Date: Mon, 09 Feb 2026 16:06:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.34762
- Title: AMEM4Rec: Leveraging Cross-User Similarity for Memory Evolution in Agentic LLM Recommenders
- Title(参考訳): AMEM4Rec:エージェントLDMレコメンダにおけるメモリ進化のためのクロスユーザ類似性を活用する
- Authors: Minh-Duc Nguyen, Hai-Dang Kieu, Dung D. Le,
- Abstract要約: AMEM4Recは、クロスユーザーメモリの進化を通じて、エンドツーエンドで協調的なシグナルを学習するエージェントレコメンデーターである。
AmazonとMINDデータセットの実験によると、AMEM4Recは、最先端のLLMベースのレコメンデータを一貫して上回っている。
- 参考スコア(独自算出の注目度): 5.664940585902205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agentic systems powered by Large Language Models (LLMs) have shown strong potential in recommender systems but remain hindered by several challenges. Fine-tuning LLMs is parameter-inefficient, and prompt-based agentic reasoning is limited by context length and hallucination risk. Moreover, existing agentic recommendation systems predominantly leverages semantic knowledge while neglecting the collaborative filtering (CF) signals essential for implicit preference modeling. To address these limitations, we propose AMEM4Rec, an agentic LLM-based recommender that learns collaborative signals in an end-to-end manner through cross-user memory evolution. AMEM4Rec stores abstract user behavior patterns from user histories in a global memory pool. Within this pool, memories are linked to similar existing ones and iteratively evolved to reinforce shared cross-user patterns, enabling the system to become aware of CF signals without relying on a pre-trained CF model. Extensive experiments on Amazon and MIND datasets show that AMEM4Rec consistently outperforms state-of-the-art LLM-based recommenders, demonstrating the effectiveness of evolving memory-guided collaborative filtering.
- Abstract(参考訳): LLM(Large Language Models)を利用したエージェントシステムは、推奨システムにおいて大きな可能性を秘めているが、いくつかの課題によって妨げられている。
微調整LDMはパラメータ非効率であり、プロンプトに基づくエージェント推論は文脈長と幻覚リスクによって制限される。
さらに、既存のエージェントレコメンデーションシステムは、暗黙の選好モデリングに不可欠な協調フィルタリング(CF)信号を無視しながら、意味的知識を主に活用する。
これらの制約に対処するために, AMEM4Recを提案する。これは, ユーザ間メモリの進化を通じて, 協調的な信号をエンドツーエンドに学習するエージェント型LLMリコメンデータである。
AMEM4Recは、ユーザ履歴から抽象的なユーザ行動パターンをグローバルメモリプールに格納する。
このプール内では、メモリは、類似した既存のメモリにリンクされ、繰り返し進化して共有ユーザパターンを補強し、事前訓練されたCFモデルに頼ることなく、システムがCF信号を認識できるようにする。
AmazonとMINDデータセットの大規模な実験によると、AMEM4Recは最先端のLMベースのレコメンデータよりも一貫して優れており、メモリ誘導コラボレーティブフィルタリングの進化の有効性を示している。
関連論文リスト
- MR.Rec: Synergizing Memory and Reasoning for Personalized Recommendation Assistant with LLMs [23.593398623128735]
MR.Recは、LLM(Large Language Models)ベースのレコメンデーションのために、メモリと推論をシナジする新しいフレームワークである。
パーソナライズを実現するため、我々は、関連する外部メモリを効率よくインデックスし、検索する総合検索拡張生成システム(RAG)を開発した。
動的メモリ検索と適応推論を組み合わせることで、このアプローチはより正確でコンテキストを認識し、高度にパーソナライズされたレコメンデーションを保証する。
論文 参考訳(メタデータ) (2025-10-16T12:40:48Z) - Beyond Semantic Understanding: Preserving Collaborative Frequency Components in LLM-based Recommendation [7.014265360936046]
FreLLM4Recは、スペクトルの観点からの意味的および協調的な情報のバランスをとるために設計されたアプローチである。
4つのベンチマークデータセットの実験により、FreLLM4Recは協調的な信号減衰を軽減した。
論文 参考訳(メタデータ) (2025-08-14T03:33:02Z) - LLM4MEA: Data-free Model Extraction Attacks on Sequential Recommenders via Large Language Models [50.794651919028965]
近年の研究では、モデル抽出攻撃(MEA)に対するシーケンシャルレコメンデータシステムの脆弱性が実証されている。
事前のMEAにおけるブラックボックス攻撃は、データ選択のランダムサンプリングによるレコメンデータシステムの脆弱性を明らかにするのに効果がない。
LLM4MEAは,Large Language Models (LLMs) を人間のようなランク付けとして活用してデータを生成する新しいモデル抽出法である。
論文 参考訳(メタデータ) (2025-07-22T19:20:23Z) - LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - What LLMs Miss in Recommendations: Bridging the Gap with Retrieval-Augmented Collaborative Signals [4.297070083645049]
ユーザとイテムのインタラクションには、多くの成功したレコメンデーションシステムのバックボーンを形成する、リッチなコラボレーティブなシグナルが含まれている。
大規模言語モデル(LLM)がこの種類の協調的な情報を効果的に説明できるかどうかは不明だ。
構造化された相互作用データにそれらの予測を基礎づけることによりLLMを強化する単純な検索拡張生成(RAG)手法を提案する。
論文 参考訳(メタデータ) (2025-05-27T05:18:57Z) - Bidirectional Knowledge Distillation for Enhancing Sequential Recommendation with Large Language Models [28.559223475725137]
大規模言語モデル(LLM)は、意味的パターンの理解と生成において、例外的な性能を示した。
LLMは、しばしば高い推論コストと静的な知識伝達方法に関連する課題に直面している。
本稿では,動的および双方向の知識交換を促進する新しい相互蒸留フレームワークLLMD4Recを提案する。
論文 参考訳(メタデータ) (2025-05-23T17:21:14Z) - EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。