論文の概要: E-mem: Multi-agent based Episodic Context Reconstruction for LLM Agent Memory
- arxiv url: http://arxiv.org/abs/2601.21714v1
- Date: Thu, 29 Jan 2026 13:42:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.858542
- Title: E-mem: Multi-agent based Episodic Context Reconstruction for LLM Agent Memory
- Title(参考訳): E-mem: LLMエージェント記憶のためのマルチエージェントに基づく韻律的文脈再構成
- Authors: Kaixiang Wang, Yidan Lin, Jiong Lou, Zhaojiacheng Zhou, Bunyod Suvonov, Jie Li,
- Abstract要約: E-memは、メモリ前処理からエピソードコンテキスト再構成に移行するフレームワークである。
E-memは54%以上のF1を達成し、最先端のGAMを7.75%上回り、トークンコストを70%以上削減している。
- 参考スコア(独自算出の注目度): 4.8183840404266185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The evolution of Large Language Model (LLM) agents towards System~2 reasoning, characterized by deliberative, high-precision problem-solving, requires maintaining rigorous logical integrity over extended horizons. However, prevalent memory preprocessing paradigms suffer from destructive de-contextualization. By compressing complex sequential dependencies into pre-defined structures (e.g., embeddings or graphs), these methods sever the contextual integrity essential for deep reasoning. To address this, we propose E-mem, a framework shifting from Memory Preprocessing to Episodic Context Reconstruction. Inspired by biological engrams, E-mem employs a heterogeneous hierarchical architecture where multiple assistant agents maintain uncompressed memory contexts, while a central master agent orchestrates global planning. Unlike passive retrieval, our mechanism empowers assistants to locally reason within activated segments, extracting context-aware evidence before aggregation. Evaluations on the LoCoMo benchmark demonstrate that E-mem achieves over 54\% F1, surpassing the state-of-the-art GAM by 7.75\%, while reducing token cost by over 70\%.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントのシステム~2推論への進化は、熟考的で高精度な問題解決によって特徴づけられ、拡張水平線上で厳密な論理的整合性を維持する必要がある。
しかし、一般的なメモリ前処理パラダイムは破壊的な非コンテキスト化に悩まされる。
複雑なシーケンシャルな依存関係を事前定義された構造(例えば埋め込みやグラフ)に圧縮することにより、これらの手法は深い推論に不可欠な文脈整合性を断ち切る。
メモリ前処理からエピソードコンテキスト再構成へ移行するフレームワークであるE-memを提案する。
E-memは生物学的エングラムに触発され、複数のアシスタントエージェントが圧縮されていないメモリコンテキストを維持し、中央マスターエージェントがグローバルプランニングを編成する異種階層アーキテクチャを採用している。
受動的検索と異なり、我々のメカニズムは、アグリゲーションの前にコンテキスト認識の証拠を抽出することで、アシスタントに活性化セグメント内の局所的推論を可能にする。
LoCoMoベンチマークの評価によると、E-memは54\% F1を超え、最先端のGAMを7.75\%上回り、トークンコストを70\%以上削減している。
関連論文リスト
- AgentLongBench: A Controllable Long Benchmark For Long-Contexts Agents via Environment Rollouts [78.33143446024485]
我々は、横方向思考パズルに基づく環境ロールアウトによるエージェントの評価を行うtextbfAgentLongBenchを紹介した。
このフレームワークは、知識集約的で知識のないシナリオにまたがる厳密な相互作用の軌跡を生成する。
論文 参考訳(メタデータ) (2026-01-28T16:05:44Z) - AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - MemRec: Collaborative Memory-Augmented Agentic Recommender System [57.548438733740504]
我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-13T18:51:16Z) - Structured Episodic Event Memory [37.643537420763344]
本研究では,リレーショナル事実のためのグラフメモリ層と,物語進行のための動的エピソディックメモリ層を相乗化する階層型フレームワークである構造化エピソディックイベントメモリ(SEEM)を提案する。
LoCoMoとLongMemEvalのベンチマーク実験の結果、SEEMはベースラインを大幅に上回ることが示された。
論文 参考訳(メタデータ) (2026-01-10T03:17:25Z) - GCAgent: Long-Video Understanding via Schematic and Narrative Episodic Memory [59.869552603264076]
GCAgent(Global-Context-Aware Agent)は,広義の長ビデオ理解を実現する新しいフレームワークである。
これは、イベントとその因果関係と時間的関係を、簡潔で組織化されたコンテキストに構造的にモデル化するものです。
実験により、GCAgentは、強力なMLLMベースライン上でのVideo-MME Long分割において、最大23.5%の精度向上を実現した。
論文 参考訳(メタデータ) (2025-11-15T04:29:00Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。