論文の概要: TraceMem: Weaving Narrative Memory Schemata from User Conversational Traces
- arxiv url: http://arxiv.org/abs/2602.09712v1
- Date: Tue, 10 Feb 2026 12:14:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.523545
- Title: TraceMem: Weaving Narrative Memory Schemata from User Conversational Traces
- Title(参考訳): TraceMem: ユーザ会話トレースからナラティブメモリスキーマを織り込む
- Authors: Yiming Shu, Pei Liu, Tiange Zhang, Ruiyang Gao, Jun Ma, Chen Sun,
- Abstract要約: 長期的な相互作用を維持することは、大規模言語モデルにとって依然としてボトルネックである。
ユーザの会話トレースから構造化された物語記憶スキーマを織り込むフレームワークであるTraceMemを提案する。
TraceMemは、ブレインインスパイアされたアーキテクチャで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 9.654990538033362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sustaining long-term interactions remains a bottleneck for Large Language Models (LLMs), as their limited context windows struggle to manage dialogue histories that extend over time. Existing memory systems often treat interactions as disjointed snippets, failing to capture the underlying narrative coherence of the dialogue stream. We propose TraceMem, a cognitively-inspired framework that weaves structured, narrative memory schemata from user conversational traces through a three-stage pipeline: (1) Short-term Memory Processing, which employs a deductive topic segmentation approach to demarcate episode boundaries and extract semantic representation; (2) Synaptic Memory Consolidation, a process that summarizes episodes into episodic memories before distilling them alongside semantics into user-specific traces; and (3) Systems Memory Consolidation, which utilizes two-stage hierarchical clustering to organize these traces into coherent, time-evolving narrative threads under unifying themes. These threads are encapsulated into structured user memory cards, forming narrative memory schemata. For memory utilization, we provide an agentic search mechanism to enhance reasoning process. Evaluation on the LoCoMo benchmark shows that TraceMem achieves state-of-the-art performance with a brain-inspired architecture. Analysis shows that by constructing coherent narratives, it surpasses baselines in multi-hop and temporal reasoning, underscoring its essential role in deep narrative comprehension. Additionally, we provide an open discussion on memory systems, offering our perspectives and future outlook on the field. Our code implementation is available at: https://github.com/YimingShu-teay/TraceMem
- Abstract(参考訳): 長期にわたる相互作用の持続は、Large Language Models (LLM) のボトルネックであり、コンテキストウィンドウが時間とともに広がる対話履歴の管理に苦慮しているためである。
既存のメモリシステムは、対話を接続されていないスニペットとして扱うことが多く、対話ストリームの根底にある物語の一貫性を捉えない。
本稿では,3段階のパイプラインを介し,ユーザの対話的トレースから物語的メモリスキーマを織り込む,認知的に着想を得たフレームワークであるTraceMemを提案する。(1) エピソード境界の区切りと意味表現の抽出に,縮退的トピックセグメンテーションアプローチを用いた短期記憶処理,(2) エピソードをエピソジックなメモリに要約したプロセスであるシナプス記憶統合,(3) ユーザ固有のトレースにセマンティクスを組み込んだ2段階の階層的クラスタリングを利用したシステム記憶統合。
これらのスレッドは構造化されたユーザメモリカードにカプセル化され、物語記憶スキーマを形成する。
メモリ利用のために、推論プロセスを強化するエージェント検索機構を提供する。
LoCoMoベンチマークの評価は、TraceMemがブレインインスパイアされたアーキテクチャで最先端のパフォーマンスを達成することを示している。
分析の結果,コヒーレントな物語を構築することで,多足歩行と時間的推論の基準を超越し,深い物語理解において本質的な役割を担っていることが示唆された。
さらに,メモリシステムについてオープンな議論を行い,今後の展望と今後の展望について述べる。
私たちのコード実装は、https://github.com/YimingShu-teay/TraceMemで利用可能です。
関連論文リスト
- The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - ES-Mem: Event Segmentation-Based Memory for Long-Term Dialogue Agents [25.10969436399974]
ES-Memは、長期のインタラクションを、異なる境界を持つセマンティックな一貫性のあるイベントに分割するフレームワークである。
ES-Memはベースライン法よりも一貫した性能向上を示す。
提案したイベントセグメンテーションモジュールは、対話セグメンテーションデータセットに堅牢な適用性を示す。
論文 参考訳(メタデータ) (2026-01-12T14:33:32Z) - Beyond Dialogue Time: Temporal Semantic Memory for Personalized LLM Agents [68.84161689205779]
テンポラルセマンティックメモリ(TSM)は、ポイントワイドメモリのセマンティックタイムをモデル化するメモリフレームワークである。
TSMは既存の手法を一貫して上回り、最大12.2%の精度向上を実現している。
論文 参考訳(メタデータ) (2026-01-12T12:24:44Z) - Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning [55.251697395358285]
大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするには、そのようなエージェントの重要な機能は、過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
イベント理論にインスパイアされたイベント中心のメモリフレームワークであるCompassMemを提案する。
論文 参考訳(メタデータ) (2026-01-08T08:44:07Z) - Mem-Gallery: Benchmarking Multimodal Long-Term Conversational Memory for MLLM Agents [76.76004970226485]
長期記憶はマルチモーダル大言語モデル(MLLM)エージェントにとって重要な機能である。
Mem-GalleryはMLLMエージェントのマルチモーダル長期会話メモリ評価のための新しいベンチマークである。
論文 参考訳(メタデータ) (2026-01-07T02:03:13Z) - EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning [42.339841548168565]
大きな言語モデル(LLM)は、長期の対話エージェントとしてますますデプロイされているが、その限られたコンテキストウィンドウは、拡張された相互作用よりもコヒーレントな振舞いを維持するのが困難である。
本稿では,EverMemOSについて紹介する。EverMemOSは,計算メモリにエミュレートされたライフサイクルを実装した自己組織型メモリオペレーティングシステムである。
EverMemOSは、メモリ拡張推論タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-05T14:39:43Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - On Memory Construction and Retrieval for Personalized Conversational Agents [69.46887405020186]
本稿では,セグメンテーションモデルを導入し,セグメントレベルでメモリバンクを構築するセグメンテーション手法であるSeComを提案する。
実験結果から,SeComは長期会話ベンチマークLOCOMOとLong-MT-Bench+のベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-02-08T14:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。