論文の概要: MemRec: Collaborative Memory-Augmented Agentic Recommender System
- arxiv url: http://arxiv.org/abs/2601.08816v1
- Date: Tue, 13 Jan 2026 18:51:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.333488
- Title: MemRec: Collaborative Memory-Augmented Agentic Recommender System
- Title(参考訳): MemRec: 協調記憶強化エージェントレコメンダシステム
- Authors: Weixin Chen, Yuhan Zhao, Jingyuan Huang, Zihe Ye, Clark Mingxuan Ju, Tong Zhao, Neil Shah, Li Chen, Yongfeng Zhang,
- Abstract要約: 我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 57.548438733740504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The evolution of recommender systems has shifted preference storage from rating matrices and dense embeddings to semantic memory in the agentic era. Yet existing agents rely on isolated memory, overlooking crucial collaborative signals. Bridging this gap is hindered by the dual challenges of distilling vast graph contexts without overwhelming reasoning agents with cognitive load, and evolving the collaborative memory efficiently without incurring prohibitive computational costs. To address this, we propose MemRec, a framework that architecturally decouples reasoning from memory management to enable efficient collaborative augmentation. MemRec introduces a dedicated, cost-effective LM_Mem to manage a dynamic collaborative memory graph, serving synthesized, high-signal context to a downstream LLM_Rec. The framework operates via a practical pipeline featuring efficient retrieval and cost-effective asynchronous graph propagation that evolves memory in the background. Extensive experiments on four benchmarks demonstrate that MemRec achieves state-of-the-art performance. Furthermore, architectural analysis confirms its flexibility, establishing a new Pareto frontier that balances reasoning quality, cost, and privacy through support for diverse deployments, including local open-source models. Code:https://github.com/rutgerswiselab/memrec and Homepage: https://memrec.weixinchen.com
- Abstract(参考訳): 推薦システムの進化により、選好記憶は格付け行列や密埋め込みからエージェント時代のセマンティックメモリへとシフトした。
しかし、既存のエージェントは孤立したメモリに依存しており、重要な協調シグナルを見落としている。
このギャップを埋めることは、認知的負荷を伴う圧倒的な推論エージェントを使わずに巨大なグラフコンテキストを蒸留し、不正な計算コストを伴わずに協調記憶を効率的に進化させるという2つの課題によって妨げられる。
そこで我々は,メモリ管理から推論をアーキテクチャ的に分離し,効率的に協調的な拡張を可能にするフレームワークであるMemRecを提案する。
MemRecは、動的コラボレーティブメモリグラフを管理するための専用で費用対効果の高いLM_Memを導入し、下流のLM_Recに合成された高信号コンテキストを提供する。
このフレームワークは、効率的な検索とコスト効率のよい非同期グラフ伝搬を備えた実用的なパイプラインを介して動作し、バックグラウンドでメモリを進化させる。
4つのベンチマークでの大規模な実験は、MemRecが最先端のパフォーマンスを達成することを示した。
さらに、アーキテクチャ分析はその柔軟性を確認し、ローカルなオープンソースモデルを含むさまざまなデプロイメントをサポートすることで、品質、コスト、プライバシの推論のバランスをとる新しいParetoフロンティアを確立する。
コード:https://github.com/rutgerswiselab/memrec and Homepage: https://memrec.weixinchen.com
関連論文リスト
- AMemGym: Interactive Memory Benchmarking for Assistants in Long-Horizon Conversations [61.6579785305668]
AMemGymは、メモリ駆動型パーソナライゼーションのためのオンライン評価と最適化を可能にする対話型環境である。
我々のフレームワークは、対話エージェントのメモリ能力を向上するためのスケーラブルで診断に富んだ環境を提供する。
論文 参考訳(メタデータ) (2026-03-02T15:15:11Z) - HyMem: Hybrid Memory Architecture with Dynamic Retrieval Scheduling [7.24393498822329]
HyMemは、マルチグラニュラメモリ表現による動的オンデマンドスケジューリングを可能にするハイブリッドメモリアーキテクチャである。
LOCOMOとLongMemEvalのベンチマークにおいて,HyMemは高い性能を示し,計算コストを92.6%削減した。
論文 参考訳(メタデータ) (2026-02-15T00:06:19Z) - UMEM: Unified Memory Extraction and Management Framework for Generalizable Memory [46.87954895079213]
自己進化型メモリは、大規模言語モデル(LLM)のトレーニング可能なパラメータとして機能する
既存の方法は、メモリ抽出を静的プロセスとして扱いながら、メモリ管理を優先的に最適化する。
本稿では,大言語モデルを協調的に最適化し,メモリの抽出と管理を同時に行うための統一メモリ抽出管理(UMEM)を提案する。
論文 参考訳(メタデータ) (2026-02-11T08:58:41Z) - MemFly: On-the-Fly Memory Optimization via Information Bottleneck [35.420309099411874]
長期記憶により、大きな言語モデルエージェントは歴史的相互作用を通じて複雑なタスクに取り組むことができる。
既存のフレームワークは、冗長な情報を効率よく圧縮し、下流タスクの正確な検索を維持するというジレンマに遭遇する。
MemFlyは、LLMのオンザフライメモリ進化を促進する情報ボトルネックの原則に基づくフレームワークである。
MemFlyは、メモリコヒーレンス、応答忠実度、精度において最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2026-02-08T09:37:25Z) - Mem-T: Densifying Rewards for Long-Horizon Memory Agents [23.19373149519922]
我々は,動的更新やストリーミング入力によるマルチターン検索を行うために,軽量な階層型メモリデータベースと対話する自律メモリエージェントMem-Tを紹介する。
また,木誘導型強化学習フレームワークであるMoT-GRPOを提案する。
論文 参考訳(メタデータ) (2026-01-30T14:23:33Z) - Fine-Mem: Fine-Grained Feedback Alignment for Long-Horizon Memory Management [63.48041801851891]
Fine-Memは、きめ細かいフィードバックアライメントのために設計された統一されたフレームワークである。
MemalphaとMemoryAgentBenchの実験は、Fin-Memが強いベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-13T11:06:17Z) - SimpleMem: Efficient Lifelong Memory for LLM Agents [73.74399447715052]
セマンティックロスレス圧縮に基づく効率的なメモリフレームワークSimpleMemを紹介する。
本稿では,情報密度とトークン利用量の最大化を目的とした3段階パイプラインを提案する。
ベンチマークデータセットを用いた実験により,提案手法は精度,検索効率,推論コストにおいて,ベースラインアプローチを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2026-01-05T21:02:49Z) - Remember Me, Refine Me: A Dynamic Procedural Memory Framework for Experience-Driven Agent Evolution [52.76038908826961]
我々は静的ストレージと動的推論のギャップを埋めるため、$textbfReMe$ ($textitRemember Me, Refine Me$)を提案する。
ReMeは3つのメカニズムを通じてメモリライフサイクルを革新する: $textitmulti-faceted distillation$, きめ細かい経験を抽出する。
BFCL-V3とAppWorldの実験では、ReMeが新しい最先端のエージェントメモリシステムを確立している。
論文 参考訳(メタデータ) (2025-12-11T14:40:01Z) - MR.Rec: Synergizing Memory and Reasoning for Personalized Recommendation Assistant with LLMs [23.593398623128735]
MR.Recは、LLM(Large Language Models)ベースのレコメンデーションのために、メモリと推論をシナジする新しいフレームワークである。
パーソナライズを実現するため、我々は、関連する外部メモリを効率よくインデックスし、検索する総合検索拡張生成システム(RAG)を開発した。
動的メモリ検索と適応推論を組み合わせることで、このアプローチはより正確でコンテキストを認識し、高度にパーソナライズされたレコメンデーションを保証する。
論文 参考訳(メタデータ) (2025-10-16T12:40:48Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。