論文の概要: MemR$^3$: Memory Retrieval via Reflective Reasoning for LLM Agents
- arxiv url: http://arxiv.org/abs/2512.20237v1
- Date: Tue, 23 Dec 2025 10:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.833854
- Title: MemR$^3$: Memory Retrieval via Reflective Reasoning for LLM Agents
- Title(参考訳): MemR$^3$: LLMエージェントのリフレクティブ推論によるメモリ検索
- Authors: Xingbo Du, Loka Li, Duzhen Zhang, Le Song,
- Abstract要約: 私たちは、自律的で正確で互換性のあるエージェントシステムとして、メモリ検索を構築します。
MemR$3$は、2つの中核的なメカニズムを持つ: 1) 解答品質を最適化するために検索、反映、回答のアクションを選択するルータ; 2) 解答プロセスを透過的に描画し、証拠収集プロセスを追跡するグローバルエビデンスギャップトラッカー。
- 参考スコア(独自算出の注目度): 29.652985606497882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory systems have been designed to leverage past experiences in Large Language Model (LLM) agents. However, many deployed memory systems primarily optimize compression and storage, with comparatively less emphasis on explicit, closed-loop control of memory retrieval. From this observation, we build memory retrieval as an autonomous, accurate, and compatible agent system, named MemR$^3$, which has two core mechanisms: 1) a router that selects among retrieve, reflect, and answer actions to optimize answer quality; 2) a global evidence-gap tracker that explicitly renders the answering process transparent and tracks the evidence collection process. This design departs from the standard retrieve-then-answer pipeline by introducing a closed-loop control mechanism that enables autonomous decision-making. Empirical results on the LoCoMo benchmark demonstrate that MemR$^3$ surpasses strong baselines on LLM-as-a-Judge score, and particularly, it improves existing retrievers across four categories with an overall improvement on RAG (+7.29%) and Zep (+1.94%) using GPT-4.1-mini backend, offering a plug-and-play controller for existing memory stores.
- Abstract(参考訳): メモリシステムは、Large Language Model (LLM)エージェントにおける過去の経験を活用するように設計されている。
しかし、多くのメモリシステムは圧縮と記憶を最適化しており、メモリ検索の明示的でクローズドループ制御にはあまり重点を置いていない。
この観察から,メモリ検索は,MemR$^3$という,自律的で正確かつ互換性のあるエージェントシステムとして構築される。
1) 回答の質を最適化するため,検索,反映及び回答行動の中から選択するルータ
2) グローバルエビデンス・ギャップ・トラッカーで, 回答プロセスの透明性を明示し, 証拠収集プロセスの追跡を行う。
この設計は、自律的な意思決定を可能にするクローズドループ制御機構を導入することで、標準的な検索・回答パイプラインから逸脱する。
LoCoMoベンチマークの実証的な結果によると、MemR$^3$はLLM-as-a-Judgeスコアの強いベースラインを超えており、特に既存のメモリストア用のプラグイン・アンド・プレイコントローラをGPT-4.1-miniバックエンドを使用してRAG(+7.29%)とZep(+1.94%)を総合的に改善した。
関連論文リスト
- Remember Me, Refine Me: A Dynamic Procedural Memory Framework for Experience-Driven Agent Evolution [52.76038908826961]
我々は静的ストレージと動的推論のギャップを埋めるため、$textbfReMe$ ($textitRemember Me, Refine Me$)を提案する。
ReMeは3つのメカニズムを通じてメモリライフサイクルを革新する: $textitmulti-faceted distillation$, きめ細かい経験を抽出する。
BFCL-V3とAppWorldの実験では、ReMeが新しい最先端のエージェントメモリシステムを確立している。
論文 参考訳(メタデータ) (2025-12-11T14:40:01Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - G-Memory: Tracing Hierarchical Memory for Multi-Agent Systems [44.844636264484905]
大規模言語モデル (LLM) を利用したマルチエージェントシステム (MAS) は、単一のLLMエージェントよりもはるかに高い認知と実行能力を示している。
組織記憶理論に触発されたMASのための階層型エージェントメモリシステムG-Memoryを紹介する。
Gメモリは、インボディードアクションの成功率と知識QAの精度を、それぞれ20.89%$と10.12%$で改善する。
論文 参考訳(メタデータ) (2025-06-09T03:43:46Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。