論文の概要: Structured Episodic Event Memory
- arxiv url: http://arxiv.org/abs/2601.06411v1
- Date: Sat, 10 Jan 2026 03:17:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.799436
- Title: Structured Episodic Event Memory
- Title(参考訳): 構造化エピソードイベントメモリ
- Authors: Zhengxuan Lu, Dongfang Li, Yukun Shi, Beilun Wang, Longyue Wang, Baotian Hu,
- Abstract要約: 本研究では,リレーショナル事実のためのグラフメモリ層と,物語進行のための動的エピソディックメモリ層を相乗化する階層型フレームワークである構造化エピソディックイベントメモリ(SEEM)を提案する。
LoCoMoとLongMemEvalのベンチマーク実験の結果、SEEMはベースラインを大幅に上回ることが示された。
- 参考スコア(独自算出の注目度): 37.643537420763344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current approaches to memory in Large Language Models (LLMs) predominantly rely on static Retrieval-Augmented Generation (RAG), which often results in scattered retrieval and fails to capture the structural dependencies required for complex reasoning. For autonomous agents, these passive and flat architectures lack the cognitive organization necessary to model the dynamic and associative nature of long-term interaction. To address this, we propose Structured Episodic Event Memory (SEEM), a hierarchical framework that synergizes a graph memory layer for relational facts with a dynamic episodic memory layer for narrative progression. Grounded in cognitive frame theory, SEEM transforms interaction streams into structured Episodic Event Frames (EEFs) anchored by precise provenance pointers. Furthermore, we introduce an agentic associative fusion and Reverse Provenance Expansion (RPE) mechanism to reconstruct coherent narrative contexts from fragmented evidence. Experimental results on the LoCoMo and LongMemEval benchmarks demonstrate that SEEM significantly outperforms baselines, enabling agents to maintain superior narrative coherence and logical consistency.
- Abstract(参考訳): LLM(Large Language Models)におけるメモリへの現在のアプローチは、多くの場合、静的検索集約生成(RAG)に依存しており、複雑な推論に必要な構造的依存関係の取得に失敗する。
自律的なエージェントにとって、これらの受動的かつ平坦なアーキテクチャは、長期的な相互作用の動的で連想的な性質をモデル化するために必要な認知組織を欠いている。
これを解決するために,構造化エピソードイベントメモリ(SEEM)を提案する。これは,リレーショナル事実のためのグラフメモリ層と,物語進行のための動的エピソードメモリ層とを相乗化する階層的なフレームワークである。
認知的フレーム理論に基づいて、SEEMは相互作用ストリームを構造化されたエピソードイベントフレーム(EEF)に変換する。
さらに、断片化された証拠からコヒーレントな物語コンテキストを再構築するために、エージェント的連想融合とReverse Provenance Expansion(RPE)機構を導入する。
LoCoMoとLongMemEvalのベンチマーク実験の結果、SEEMはベースラインを著しく上回り、エージェントは優れた物語コヒーレンスと論理的一貫性を維持することができた。
関連論文リスト
- Disco-RAG: Discourse-Aware Retrieval-Augmented Generation [81.53888908988756]
生成プロセスに談話信号を注入する談話認識フレームワークであるディスコRAGを提案する。
提案手法は,チャンク内談話木を構築し,局所階層を捕捉し,クロスパスコヒーレンスをモデル化するためのチャンク間修辞グラフを構築する。
質問応答と長期文書要約ベンチマークの実験から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-07T20:32:50Z) - Improving Multi-step RAG with Hypergraph-based Memory for Long-Context Complex Relational Modeling [83.29209853451697]
多段階検索強化世代(RAG)は,大規模言語モデル(LLM)の拡張戦略として広く採用されている。
我々はHGMemというハイパーグラフベースのメモリ機構を導入し、複雑な推論とグローバルな理解のためにメモリの概念を動的に表現的構造に拡張する。
提案手法では,ハイパーエッジが異なるメモリ単位に対応するハイパーグラフとして表現され,メモリ内での高次相互作用の進行的形成を可能にする。
論文 参考訳(メタデータ) (2025-12-30T03:13:10Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - Cognitive Weave: Synthesizing Abstracted Knowledge with a Spatio-Temporal Resonance Graph [2.800801614127705]
本稿では,多層動的共鳴グラフ(GSTR)を中心としたメモリフレームワークであるCognitive Weaveを紹介する。
GSTRはセマンティック・リッチ・インサイト・パーティクル(IP)として情報を管理し、専用のセマンティック・オーラル・インタフェース(ISO)を通じて共振鍵、シグニケータ、状況インプリントを付加する。
Cognitive Weaveの重要なコンポーネントは認知プロセスである。これは、高レベルの知識構造を凝縮した洞察集約(AsI)の合成を含む。
論文 参考訳(メタデータ) (2025-06-09T18:00:46Z) - Latent Structured Hopfield Network for Semantic Association and Retrieval [52.634915010996835]
エピソード記憶は、オブジェクト、場所、時間などの意味的要素をコヒーレントなイベント表現に関連付けることによって、過去の経験を思い出すことができる。
本稿では,連続ホップフィールドアトラクタダイナミクスを自動エンコーダアーキテクチャに統合するフレームワークであるLatent Structured Hopfield Network (LSHN)を提案する。
従来のホップフィールドネットワークとは異なり、我々のモデルは勾配勾配でエンドツーエンドに訓練され、スケーラブルで堅牢なメモリ検索を実現する。
論文 参考訳(メタデータ) (2025-06-02T04:24:36Z) - Temporal Model On Quantum Logic [0.0]
このフレームワークは、線形および分岐時間モデルを用いて、時間とともに命題の進化を定式化する。
メモリの階層構造は、有向非巡回グラフを用いて表される。
論文 参考訳(メタデータ) (2025-02-09T17:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。