論文の概要: MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents
- arxiv url: http://arxiv.org/abs/2601.03236v1
- Date: Tue, 06 Jan 2026 18:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.05863
- Title: MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents
- Title(参考訳): MAGMA:AIエージェントのためのマルチグラフベースのエージェントメモリアーキテクチャ
- Authors: Dongming Jiang, Yi Li, Guanpeng Li, Bingzhe Li,
- Abstract要約: Memory-Augmented Generation (MAG) は、Large Language Modelsを外部メモリで拡張し、長文推論をサポートする。
既存のアプローチは、モノリシックなメモリストアに対するセマンティックな類似性に大きく依存しており、時間的、因果的、実体的な情報を絡み合わせる。
本稿では, 意味, 時間, 因果, 実体グラフにまたがる各メモリ項目を表すマルチグラフエージェントメモリアーキテクチャであるMAGMAを提案する。
- 参考スコア(独自算出の注目度): 4.4848347718892425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory-Augmented Generation (MAG) extends Large Language Models with external memory to support long-context reasoning, but existing approaches largely rely on semantic similarity over monolithic memory stores, entangling temporal, causal, and entity information. This design limits interpretability and alignment between query intent and retrieved evidence, leading to suboptimal reasoning accuracy. In this paper, we propose MAGMA, a multi-graph agentic memory architecture that represents each memory item across orthogonal semantic, temporal, causal, and entity graphs. MAGMA formulates retrieval as policy-guided traversal over these relational views, enabling query-adaptive selection and structured context construction. By decoupling memory representation from retrieval logic, MAGMA provides transparent reasoning paths and fine-grained control over retrieval. Experiments on LoCoMo and LongMemEval demonstrate that MAGMA consistently outperforms state-of-the-art agentic memory systems in long-horizon reasoning tasks.
- Abstract(参考訳): Memory-Augmented Generation (MAG) は、長期コンテキスト推論をサポートするために、外部メモリを備えた大規模言語モデルを拡張するが、既存のアプローチは、モノリシックなメモリストアに対する意味的類似性、時間的、因果的、エンティティ情報に大きく依存している。
この設計は、クエリインテントと検索されたエビデンスの間の解釈可能性とアライメントを制限する。
本稿では,直交的意味,時間的,因果的,実体的グラフにまたがる各メモリ項目を表すマルチグラフエージェントメモリアーキテクチャであるMAGMAを提案する。
MAGMAは、これらのリレーショナルビューに対するポリシー誘導トラバーサルとして検索を定式化し、クエリ適応選択と構造化コンテキスト構築を可能にする。
記憶表現を検索論理から切り離すことで、MAGMAは透明な推論パスと検索のきめ細かい制御を提供する。
LoCoMoとLongMemEvalの実験は、MAGMAがロングホライゾン推論タスクにおいて、最先端のエージェントメモリシステムより一貫して優れていることを示した。
関連論文リスト
- Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - Memory in the Age of AI Agents [217.9368190980982]
この研究は、現在のエージェントメモリ研究の最新の展望を提供することを目的としている。
我々は,エージェントメモリ,すなわちトークンレベル,パラメトリック,潜時メモリの3つの支配的実現を同定する。
実用的な開発を支援するため、メモリベンチマークとオープンソースフレームワークの包括的な概要をコンパイルする。
論文 参考訳(メタデータ) (2025-12-15T17:22:34Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。