論文の概要: MemRec: Collaborative Memory-Augmented Agentic Recommender System
- arxiv url: http://arxiv.org/abs/2601.08816v2
- Date: Sat, 17 Jan 2026 02:11:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 14:05:45.091937
- Title: MemRec: Collaborative Memory-Augmented Agentic Recommender System
- Title(参考訳): MemRec: 協調記憶強化エージェントレコメンダシステム
- Authors: Weixin Chen, Yuhan Zhao, Jingyuan Huang, Zihe Ye, Clark Mingxuan Ju, Tong Zhao, Neil Shah, Li Chen, Yongfeng Zhang,
- Abstract要約: 我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 57.548438733740504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The evolution of recommender systems has shifted preference storage from rating matrices and dense embeddings to semantic memory in the agentic era. Yet existing agents rely on isolated memory, overlooking crucial collaborative signals. Bridging this gap is hindered by the dual challenges of distilling vast graph contexts without overwhelming reasoning agents with cognitive load, and evolving the collaborative memory efficiently without incurring prohibitive computational costs. To address this, we propose MemRec, a framework that architecturally decouples reasoning from memory management to enable efficient collaborative augmentation. MemRec introduces a dedicated, cost-effective LM_Mem to manage a dynamic collaborative memory graph, serving synthesized, high-signal context to a downstream LLM_Rec. The framework operates via a practical pipeline featuring efficient retrieval and cost-effective asynchronous graph propagation that evolves memory in the background. Extensive experiments on four benchmarks demonstrate that MemRec achieves state-of-the-art performance. Furthermore, architectural analysis confirms its flexibility, establishing a new Pareto frontier that balances reasoning quality, cost, and privacy through support for diverse deployments, including local open-source models. Code:https://github.com/rutgerswiselab/memrec and Homepage: https://memrec.weixinchen.com
- Abstract(参考訳): 推薦システムの進化により、選好記憶は格付け行列や密埋め込みからエージェント時代のセマンティックメモリへとシフトした。
しかし、既存のエージェントは孤立したメモリに依存しており、重要な協調シグナルを見落としている。
このギャップを埋めることは、認知的負荷を伴う圧倒的な推論エージェントを使わずに巨大なグラフコンテキストを蒸留し、不正な計算コストを伴わずに協調記憶を効率的に進化させるという2つの課題によって妨げられる。
そこで我々は,メモリ管理から推論をアーキテクチャ的に分離し,効率的に協調的な拡張を可能にするフレームワークであるMemRecを提案する。
MemRecは、動的コラボレーティブメモリグラフを管理するための専用で費用対効果の高いLM_Memを導入し、下流のLM_Recに合成された高信号コンテキストを提供する。
このフレームワークは、効率的な検索とコスト効率のよい非同期グラフ伝搬を備えた実用的なパイプラインを介して動作し、バックグラウンドでメモリを進化させる。
4つのベンチマークでの大規模な実験は、MemRecが最先端のパフォーマンスを達成することを示した。
さらに、アーキテクチャ分析はその柔軟性を確認し、ローカルなオープンソースモデルを含むさまざまなデプロイメントをサポートすることで、品質、コスト、プライバシの推論のバランスをとる新しいParetoフロンティアを確立する。
コード:https://github.com/rutgerswiselab/memrec and Homepage: https://memrec.weixinchen.com
関連論文リスト
- Fine-Mem: Fine-Grained Feedback Alignment for Long-Horizon Memory Management [63.48041801851891]
Fine-Memは、きめ細かいフィードバックアライメントのために設計された統一されたフレームワークである。
MemalphaとMemoryAgentBenchの実験は、Fin-Memが強いベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-13T11:06:17Z) - SimpleMem: Efficient Lifelong Memory for LLM Agents [73.74399447715052]
セマンティックロスレス圧縮に基づく効率的なメモリフレームワークSimpleMemを紹介する。
本稿では,情報密度とトークン利用量の最大化を目的とした3段階パイプラインを提案する。
ベンチマークデータセットを用いた実験により,提案手法は精度,検索効率,推論コストにおいて,ベースラインアプローチを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2026-01-05T21:02:49Z) - MR.Rec: Synergizing Memory and Reasoning for Personalized Recommendation Assistant with LLMs [23.593398623128735]
MR.Recは、LLM(Large Language Models)ベースのレコメンデーションのために、メモリと推論をシナジする新しいフレームワークである。
パーソナライズを実現するため、我々は、関連する外部メモリを効率よくインデックスし、検索する総合検索拡張生成システム(RAG)を開発した。
動的メモリ検索と適応推論を組み合わせることで、このアプローチはより正確でコンテキストを認識し、高度にパーソナライズされたレコメンデーションを保証する。
論文 参考訳(メタデータ) (2025-10-16T12:40:48Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。