論文の概要: MemR$^3$: Memory Retrieval via Reflective Reasoning for LLM Agents
- arxiv url: http://arxiv.org/abs/2512.20237v1
- Date: Tue, 23 Dec 2025 10:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.833854
- Title: MemR$^3$: Memory Retrieval via Reflective Reasoning for LLM Agents
- Title(参考訳): MemR$^3$: LLMエージェントのリフレクティブ推論によるメモリ検索
- Authors: Xingbo Du, Loka Li, Duzhen Zhang, Le Song,
- Abstract要約: 私たちは、自律的で正確で互換性のあるエージェントシステムとして、メモリ検索を構築します。
MemR$3$は、2つの中核的なメカニズムを持つ: 1) 解答品質を最適化するために検索、反映、回答のアクションを選択するルータ; 2) 解答プロセスを透過的に描画し、証拠収集プロセスを追跡するグローバルエビデンスギャップトラッカー。
- 参考スコア(独自算出の注目度): 29.652985606497882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory systems have been designed to leverage past experiences in Large Language Model (LLM) agents. However, many deployed memory systems primarily optimize compression and storage, with comparatively less emphasis on explicit, closed-loop control of memory retrieval. From this observation, we build memory retrieval as an autonomous, accurate, and compatible agent system, named MemR$^3$, which has two core mechanisms: 1) a router that selects among retrieve, reflect, and answer actions to optimize answer quality; 2) a global evidence-gap tracker that explicitly renders the answering process transparent and tracks the evidence collection process. This design departs from the standard retrieve-then-answer pipeline by introducing a closed-loop control mechanism that enables autonomous decision-making. Empirical results on the LoCoMo benchmark demonstrate that MemR$^3$ surpasses strong baselines on LLM-as-a-Judge score, and particularly, it improves existing retrievers across four categories with an overall improvement on RAG (+7.29%) and Zep (+1.94%) using GPT-4.1-mini backend, offering a plug-and-play controller for existing memory stores.
- Abstract(参考訳): メモリシステムは、Large Language Model (LLM)エージェントにおける過去の経験を活用するように設計されている。
しかし、多くのメモリシステムは圧縮と記憶を最適化しており、メモリ検索の明示的でクローズドループ制御にはあまり重点を置いていない。
この観察から,メモリ検索は,MemR$^3$という,自律的で正確かつ互換性のあるエージェントシステムとして構築される。
1) 回答の質を最適化するため,検索,反映及び回答行動の中から選択するルータ
2) グローバルエビデンス・ギャップ・トラッカーで, 回答プロセスの透明性を明示し, 証拠収集プロセスの追跡を行う。
この設計は、自律的な意思決定を可能にするクローズドループ制御機構を導入することで、標準的な検索・回答パイプラインから逸脱する。
LoCoMoベンチマークの実証的な結果によると、MemR$^3$はLLM-as-a-Judgeスコアの強いベースラインを超えており、特に既存のメモリストア用のプラグイン・アンド・プレイコントローラをGPT-4.1-miniバックエンドを使用してRAG(+7.29%)とZep(+1.94%)を総合的に改善した。
関連論文リスト
- Choosing How to Remember: Adaptive Memory Structures for LLM Agents [43.27579458682491]
メモリは、大きな言語モデル(LLM)ベースのエージェントが長い水平相互作用に対するコヒーレントな振舞いを維持するために重要である。
LLMエージェントに適応的なメモリ構成を可能にする統合フレームワークFluxMemを提案する。
PERSONAMEMとLoCoMoの2つのロングホライゾンベンチマーク実験により,本手法が平均改善率9.18%と6.14%を達成することを示した。
論文 参考訳(メタデータ) (2026-02-15T07:56:24Z) - MemAdapter: Fast Alignment across Agent Memory Paradigms via Generative Subgraph Retrieval [25.68006224976726]
メモリメカニズムはLLMベースのエージェントの中核的なコンポーネントであり、長期のコンテキスト上での推論と知識発見を可能にする。
既存のエージェントメモリシステムは通常、密結合した検索手法で分離されたパラダイムで設計される。
MemAdapterは、エージェントメモリパラダイム間の高速アライメントを可能にするメモリ検索フレームワークである。
論文 参考訳(メタデータ) (2026-02-09T08:09:25Z) - Mem-T: Densifying Rewards for Long-Horizon Memory Agents [23.19373149519922]
我々は,動的更新やストリーミング入力によるマルチターン検索を行うために,軽量な階層型メモリデータベースと対話する自律メモリエージェントMem-Tを紹介する。
また,木誘導型強化学習フレームワークであるMoT-GRPOを提案する。
論文 参考訳(メタデータ) (2026-01-30T14:23:33Z) - MemCtrl: Using MLLMs as Active Memory Controllers on Embodied Agents [53.44122827359892]
本稿では,Multimodal Large Language Models (MLLM) を用いたメモリのオンラインプルーニングフレームワークであるMemCtrlを提案する。
拡張MLLMは平均で16%、特定の命令サブセットで20%以上改善されている。
論文 参考訳(メタデータ) (2026-01-28T18:31:17Z) - MemRec: Collaborative Memory-Augmented Agentic Recommender System [57.548438733740504]
我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-13T18:51:16Z) - Remember Me, Refine Me: A Dynamic Procedural Memory Framework for Experience-Driven Agent Evolution [52.76038908826961]
我々は静的ストレージと動的推論のギャップを埋めるため、$textbfReMe$ ($textitRemember Me, Refine Me$)を提案する。
ReMeは3つのメカニズムを通じてメモリライフサイクルを革新する: $textitmulti-faceted distillation$, きめ細かい経験を抽出する。
BFCL-V3とAppWorldの実験では、ReMeが新しい最先端のエージェントメモリシステムを確立している。
論文 参考訳(メタデータ) (2025-12-11T14:40:01Z) - MemSearcher: Training LLMs to Reason, Search and Manage Memory via End-to-End Reinforcement Learning [73.27233666920618]
本稿では,メモリを反復的に保持し,現在のターンと組み合わせたエージェントワークフローであるMemSearcherを提案する。
それぞれのターンで、MemSearcherはユーザーの質問をメモリに融合させ、推論トレースを生成し、検索アクションを実行し、メモリを更新してタスクの解決に必要な情報のみを保持する。
我々は,MemSearcher Agents の推論,検索戦略,メモリ管理を協調的に最適化する,エンドツーエンドの RL フレームワークである Multi-context GRPO を紹介する。
論文 参考訳(メタデータ) (2025-11-04T18:27:39Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - G-Memory: Tracing Hierarchical Memory for Multi-Agent Systems [44.844636264484905]
大規模言語モデル (LLM) を利用したマルチエージェントシステム (MAS) は、単一のLLMエージェントよりもはるかに高い認知と実行能力を示している。
組織記憶理論に触発されたMASのための階層型エージェントメモリシステムG-Memoryを紹介する。
Gメモリは、インボディードアクションの成功率と知識QAの精度を、それぞれ20.89%$と10.12%$で改善する。
論文 参考訳(メタデータ) (2025-06-09T03:43:46Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。