論文の概要: Beyond Dialogue Time: Temporal Semantic Memory for Personalized LLM Agents
- arxiv url: http://arxiv.org/abs/2601.07468v1
- Date: Mon, 12 Jan 2026 12:24:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.37183
- Title: Beyond Dialogue Time: Temporal Semantic Memory for Personalized LLM Agents
- Title(参考訳): 対話時間を超えて:パーソナライズされたLDMエージェントのための時間意味記憶
- Authors: Miao Su, Yucan Guo, Zhongni Hou, Long Bai, Zixuan Li, Yufei Zhang, Guojun Yin, Wei Lin, Xiaolong Jin, Jiafeng Guo, Xueqi Cheng,
- Abstract要約: テンポラルセマンティックメモリ(TSM)は、ポイントワイドメモリのセマンティックタイムをモデル化するメモリフレームワークである。
TSMは既存の手法を一貫して上回り、最大12.2%の精度向上を実現している。
- 参考スコア(独自算出の注目度): 68.84161689205779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory enables Large Language Model (LLM) agents to perceive, store, and use information from past dialogues, which is essential for personalization. However, existing methods fail to properly model the temporal dimension of memory in two aspects: 1) Temporal inaccuracy: memories are organized by dialogue time rather than their actual occurrence time; 2) Temporal fragmentation: existing methods focus on point-wise memory, losing durative information that captures persistent states and evolving patterns. To address these limitations, we propose Temporal Semantic Memory (TSM), a memory framework that models semantic time for point-wise memory and supports the construction and utilization of durative memory. During memory construction, it first builds a semantic timeline rather than a dialogue one. Then, it consolidates temporally continuous and semantically related information into a durative memory. During memory utilization, it incorporates the query's temporal intent on the semantic timeline, enabling the retrieval of temporally appropriate durative memories and providing time-valid, duration-consistent context to support response generation. Experiments on LongMemEval and LoCoMo show that TSM consistently outperforms existing methods and achieves up to 12.2% absolute improvement in accuracy, demonstrating the effectiveness of the proposed method.
- Abstract(参考訳): メモリにより、LLM(Large Language Model)エージェントは、個人化に不可欠な過去の対話からの情報を認識し、保存し、使用することができる。
しかし、既存の手法では、メモリの時間次元を2つの側面で適切にモデル化できない。
1) 時間的不正確性:記憶は実際の発生時間ではなく対話時間によって組織される。
2) 時間的断片化: 既存のメソッドはポイントワイドメモリに焦点を合わせ、永続的な状態と進化するパターンをキャプチャする重複情報を失う。
これらの制約に対処するため,時間的セマンティックメモリ(TSM)を提案する。
メモリ構築中は、ダイアログではなくセマンティックタイムラインを構築する。
そして、時間的に連続し、意味的に関連した情報をダレーティブメモリに集約する。
メモリ利用中は、クエリの時間的意図をセマンティックタイムラインに組み込んで、時間的に適切な予測メモリの検索を可能にし、応答生成をサポートするための時間的、時間的一貫性のあるコンテキストを提供する。
LongMemEvalとLoCoMoの実験では、TSMは既存の手法を一貫して上回り、最大12.2%の精度向上を実現し、提案手法の有効性を実証している。
関連論文リスト
- Amory: Building Coherent Narrative-Driven Agent Memory through Agentic Reasoning [14.368376032599437]
Amoryは、オフライン時に構造化されたメモリ表現を積極的に構築するワーキングメモリフレームワークである。
アモリーは会話の断片を叙事詩の物語に整理し、記憶を運動量と統合し、周辺事実を意味記憶に意味づける。
Amoryは従来の最先端よりも大幅に改善され、パフォーマンスは完全なコンテキスト推論に匹敵し、レスポンスタイムを50%削減した。
論文 参考訳(メタデータ) (2026-01-09T19:51:11Z) - Mem-Gallery: Benchmarking Multimodal Long-Term Conversational Memory for MLLM Agents [76.76004970226485]
長期記憶はマルチモーダル大言語モデル(MLLM)エージェントにとって重要な機能である。
Mem-GalleryはMLLMエージェントのマルチモーダル長期会話メモリ評価のための新しいベンチマークである。
論文 参考訳(メタデータ) (2026-01-07T02:03:13Z) - Memory-T1: Reinforcement Learning for Temporal Reasoning in Multi-session Agents [80.33280979339123]
強化学習(RL)を用いた時間認識メモリ選択ポリシーを学習するフレームワークであるMemory-T1を紹介する。
Time-Dialogベンチマークでは、Memory-T1が7Bモデルを67.0%に引き上げ、オープンソースモデルの新たな最先端パフォーマンスを確立した。
論文 参考訳(メタデータ) (2025-12-23T06:37:29Z) - WorldMM: Dynamic Multimodal Memory Agent for Long Video Reasoning [66.24870234484668]
我々は,複数の相補的記憶から構築・取得する,新しいマルチモーダルメモリエージェント WorldMM を紹介する。
WorldMMは5つの長いビデオ質問回答ベンチマークで既存のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-12-02T05:14:52Z) - Evaluating Long-Term Memory for Long-Context Question Answering [100.1267054069757]
質問応答タスクにアノテートした合成長文対話のベンチマークであるLoCoMoを用いて,メモリ拡張手法の体系的評価を行う。
以上の結果から,メモリ拡張アプローチによりトークン使用率が90%以上削減され,競争精度が向上した。
論文 参考訳(メタデータ) (2025-10-27T18:03:50Z) - Multiple Memory Systems for Enhancing the Long-term Memory of Agent [9.43633399280987]
MemoryBankやA-MEMといった既存の手法は、記憶されているメモリの質が劣っている。
我々は認知心理学理論にインスパイアされた多重記憶システムを設計した。
論文 参考訳(メタデータ) (2025-08-21T06:29:42Z) - Ever-Evolving Memory by Blending and Refining the Past [30.63352929849842]
CREEMは長期会話のための新しい記憶システムである。
過去と現在の情報をシームレスに接続すると同時に、障害情報を忘れる能力も備えている。
論文 参考訳(メタデータ) (2024-03-03T08:12:59Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。