論文の概要: TiMem: Temporal-Hierarchical Memory Consolidation for Long-Horizon Conversational Agents
- arxiv url: http://arxiv.org/abs/2601.02845v1
- Date: Tue, 06 Jan 2026 09:24:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.867066
- Title: TiMem: Temporal-Hierarchical Memory Consolidation for Long-Horizon Conversational Agents
- Title(参考訳): TiMem:長期会話エージェントのための時間階層記憶統合
- Authors: Kai Li, Xuanqing Yu, Ziyi Ni, Yi Zeng, Yao Xu, Zheqing Zhang, Xin Li, Jitao Sang, Xiaogang Duan, Xuelei Wang, Chengbao Liu, Jie Tan,
- Abstract要約: テンポラルメモリツリー(TMT)を通して会話を整理する時間階層型メモリフレームワークTiMemを提案する。
TiMemの特徴は3つのコア特性である。(1)TMTによる時間的階層構造、(2)微調整なしで階層レベルのメモリ統合を可能にする意味誘導統合、(3)複雑さの異なるクエリ間のバランスと効率のバランスをとる複雑性認識メモリリコールである。
- 参考スコア(独自算出の注目度): 31.793564520129348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-horizon conversational agents have to manage ever-growing interaction histories that quickly exceed the finite context windows of large language models (LLMs). Existing memory frameworks provide limited support for temporally structured information across hierarchical levels, often leading to fragmented memories and unstable long-horizon personalization. We present TiMem, a temporal--hierarchical memory framework that organizes conversations through a Temporal Memory Tree (TMT), enabling systematic memory consolidation from raw conversational observations to progressively abstracted persona representations. TiMem is characterized by three core properties: (1) temporal--hierarchical organization through TMT; (2) semantic-guided consolidation that enables memory integration across hierarchical levels without fine-tuning; and (3) complexity-aware memory recall that balances precision and efficiency across queries of varying complexity. Under a consistent evaluation setup, TiMem achieves state-of-the-art accuracy on both benchmarks, reaching 75.30% on LoCoMo and 76.88% on LongMemEval-S. It outperforms all evaluated baselines while reducing the recalled memory length by 52.20% on LoCoMo. Manifold analysis indicates clear persona separation on LoCoMo and reduced dispersion on LongMemEval-S. Overall, TiMem treats temporal continuity as a first-class organizing principle for long-horizon memory in conversational agents.
- Abstract(参考訳): ロングホライゾンの会話エージェントは、大きな言語モデル(LLM)の有限コンテキストウインドウを急速に超える、成長を続ける相互作用履歴を管理する必要がある。
既存のメモリフレームワークは、階層的なレベルにわたって時間的に構造化された情報を限定的にサポートし、しばしば断片化されたメモリと不安定なロングホライゾンパーソナライゼーションをもたらす。
本稿では, 時間的階層型メモリフレームワークであるTiMemについて述べる。TMTによる時間的階層化, 2) 微調整なしで階層レベルのメモリ統合を可能にする意味誘導型メモリ統合, (3) 複雑度のあるクエリ間の精度と効率のバランスをとる複雑性認識メモリの3つのコア特性を特徴とする。
一貫性のある評価設定の下で、TiMemは両方のベンチマークで最先端の精度を達成し、LoCoMoでは75.30%、LongMemEval-Sでは76.88%に達した。
評価されたすべてのベースラインを上回り、LoCoMoではリコールされたメモリ長を52.20%削減した。
マニフォールド解析は, LoCoMo上での明確なペルソナ分離とLongMemEval-Sでの分散低減を示す。
全体として、TiMemは、会話エージェントにおける長期記憶のための一級組織原則として、時間的連続性を扱う。
関連論文リスト
- Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - CogMem: A Cognitive Memory Architecture for Sustained Multi-Turn Reasoning in Large Language Models [21.427373172124167]
大規模言語モデル(LLM)はシングルターン推論では優れているが、拡張されたマルチターン相互作用よりも精度とコヒーレンスを失うことが多い。
メモリ拡張型LLMアーキテクチャであるCogMemを導入する。
TurnBenchの実験では、この階層化された設計は推論の失敗を軽減し、コンテキストの成長を制御し、拡張された推論チェーン間の一貫性を改善する。
論文 参考訳(メタデータ) (2025-12-16T06:01:08Z) - MemVerse: Multimodal Memory for Lifelong Learning Agents [35.218549149012844]
我々は,モデルに依存しないプラグアンドプレイメモリフレームワークであるMemVerseを紹介した。
MemVerseは階層的検索ベースのメモリで高速パラメトリックリコールを行う。
スケーラブルで適応的なマルチモーダルインテリジェンスを実現する。
論文 参考訳(メタデータ) (2025-12-03T10:06:14Z) - WorldMM: Dynamic Multimodal Memory Agent for Long Video Reasoning [66.24870234484668]
我々は,複数の相補的記憶から構築・取得する,新しいマルチモーダルメモリエージェント WorldMM を紹介する。
WorldMMは5つの長いビデオ質問回答ベンチマークで既存のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-12-02T05:14:52Z) - LiCoMemory: Lightweight and Cognitive Agentic Memory for Efficient Long-Term Reasoning [15.189701702660821]
LiCoMemoryはリアルタイム更新と検索のためのエンドツーエンドのエージェントメモリフレームワークである。
CoGraphは、エンティティとリレーションをセマンティックインデックス層として利用する、軽量な階層グラフである。
長期の対話ベンチマークであるLoCoMoとLongMemEvalの実験では、LiCoMemoryは時間的推論、マルチセッション一貫性、検索効率において確立されたベースラインを上回るだけでなく、更新レイテンシも顕著に低減している。
論文 参考訳(メタデータ) (2025-11-03T11:02:40Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - LightMem: Lightweight and Efficient Memory-Augmented Generation [72.21680105265824]
我々は、メモリシステムの性能と効率のバランスをとるLightMemという新しいメモリシステムを紹介した。
人間の記憶のアトキンソン・シフリンモデルにインスパイアされたLightMemは、メモリを3つの相補的なステージにまとめる。
GPTとQwenのバックボーンを用いたLongMemEvalの実験では、LightMemは高いベースライン(最大10.9%のゲイン)を上回り、トークンの使用量を最大117倍に削減している。
論文 参考訳(メタデータ) (2025-10-21T17:58:17Z) - MeMSVD: Long-Range Temporal Structure Capturing Using Incremental SVD [27.472705540825316]
本論文は、長時間の時間窓上での人間の行動を認識すること(最大数分)を目標とする長期映像理解について述べる。
本稿では,Singular Value Decomposition を用いて取得したメモリの低ランク近似に基づくアテンションベースのスキームの代替を提案する。
提案手法には2つの利点がある: (a) 複雑度を1桁以上削減し, (b) メモリベース計算の効率的な実装が可能である。
論文 参考訳(メタデータ) (2024-06-11T12:03:57Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。