論文の概要: Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning
- arxiv url: http://arxiv.org/abs/2601.04726v1
- Date: Thu, 08 Jan 2026 08:44:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.115496
- Title: Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning
- Title(参考訳): より重要な記憶:エージェント検索と推論のための論理マップとしてのイベント中心記憶
- Authors: Yuyang Hu, Jiongnan Liu, Jiejun Tan, Yutao Zhu, Zhicheng Dou,
- Abstract要約: 大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするには、そのようなエージェントの重要な機能は、過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
イベント理論にインスパイアされたイベント中心のメモリフレームワークであるCompassMemを提案する。
- 参考スコア(独自算出の注目度): 55.251697395358285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly deployed as intelligent agents that reason, plan, and interact with their environments. To effectively scale to long-horizon scenarios, a key capability for such agents is a memory mechanism that can retain, organize, and retrieve past experiences to support downstream decision-making. However, most existing approaches organize and store memories in a flat manner and rely on simple similarity-based retrieval techniques. Even when structured memory is introduced, existing methods often struggle to explicitly capture the logical relationships among experiences or memory units. Moreover, memory access is largely detached from the constructed structure and still depends on shallow semantic retrieval, preventing agents from reasoning logically over long-horizon dependencies. In this work, we propose CompassMem, an event-centric memory framework inspired by Event Segmentation Theory. CompassMem organizes memory as an Event Graph by incrementally segmenting experiences into events and linking them through explicit logical relations. This graph serves as a logic map, enabling agents to perform structured and goal-directed navigation over memory beyond superficial retrieval, progressively gathering valuable memories to support long-horizon reasoning. Experiments on LoCoMo and NarrativeQA demonstrate that CompassMem consistently improves both retrieval and reasoning performance across multiple backbone models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするために、そのようなエージェントの重要な機能は、下流の意思決定をサポートする過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
しかし、既存のほとんどのアプローチはメモリをフラットに整理・保存し、単純な類似性に基づく検索技術に依存している。
構造化メモリが導入されたとしても、既存の手法は経験やメモリユニット間の論理的関係を明示的に捉えるのに苦労することが多い。
さらに、メモリアクセスは構築された構造から大きく切り離され、依然として浅いセマンティック検索に依存しており、エージェントが長い水平依存に対して論理的に推論することを防ぐ。
本研究では,イベントセグメンテーション理論にヒントを得たイベント中心メモリフレームワークであるCompassMemを提案する。
CompassMemは、経験をイベントに段階的に分割し、明示的な論理的関係を通じてそれらをリンクすることによって、イベントグラフとしてメモリを編成する。
このグラフは論理マップとして機能し、エージェントは表面的検索以上のメモリ上で構造化された、ゴール指向のナビゲーションを実行でき、徐々に価値ある記憶を集め、長い水平推論をサポートする。
LoCoMoとNarrativeQAの実験では、CompassMemは複数のバックボーンモデル間での検索と推論のパフォーマンスを一貫して改善している。
関連論文リスト
- MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents [4.4848347718892425]
Memory-Augmented Generation (MAG) は、Large Language Modelsを外部メモリで拡張し、長文推論をサポートする。
既存のアプローチは、モノリシックなメモリストアに対するセマンティックな類似性に大きく依存しており、時間的、因果的、実体的な情報を絡み合わせる。
本稿では, 意味, 時間, 因果, 実体グラフにまたがる各メモリ項目を表すマルチグラフエージェントメモリアーキテクチャであるMAGMAを提案する。
論文 参考訳(メタデータ) (2026-01-06T18:29:43Z) - Memory in the Age of AI Agents [217.9368190980982]
この研究は、現在のエージェントメモリ研究の最新の展望を提供することを目的としている。
我々は,エージェントメモリ,すなわちトークンレベル,パラメトリック,潜時メモリの3つの支配的実現を同定する。
実用的な開発を支援するため、メモリベンチマークとオープンソースフレームワークの包括的な概要をコンパイルする。
論文 参考訳(メタデータ) (2025-12-15T17:22:34Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - MemGen: Weaving Generative Latent Memory for Self-Evolving Agents [57.1835920227202]
本稿では,エージェントに人間的な認知機能を持たせる動的生成記憶フレームワークであるMemGenを提案する。
MemGenは、エージェントが推論を通して潜在記憶をリコールし、増大させ、記憶と認知の密接なサイクルを生み出すことを可能にする。
論文 参考訳(メタデータ) (2025-09-29T12:33:13Z) - ArcMemo: Abstract Reasoning Composition with Lifelong LLM Memory [21.4675019810992]
概念レベルのメモリは再利用され、ソリューショントレースから抽出されたモジュラー抽象化が自然言語に格納される。
我々は、合成一般化と抽象的推論を強調するベンチマークARC-AGIを評価する。
抽象概念は最も一貫したメモリ設計であり、全てのテストされた推論計算スケールでベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-04T17:54:19Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。