論文の概要: Membox: Weaving Topic Continuity into Long-Range Memory for LLM Agents
- arxiv url: http://arxiv.org/abs/2601.03785v1
- Date: Wed, 07 Jan 2026 10:36:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.179206
- Title: Membox: Weaving Topic Continuity into Long-Range Memory for LLM Agents
- Title(参考訳): Membox:LLMエージェントのロングランジメモリにトピック連続性を織り込む
- Authors: Dehao Tao, Guoliang Ma, Yongfeng Huang, Minghu Jiang,
- Abstract要約: Topic Loomを中心にした階層型メモリアーキテクチャであるmemboxを紹介した。
Memboxはスライディングウインドウ方式で対話を監視し、連続した同一トピックの変換を記憶時にコヒーレントな「メモリボックス」にグループ化する。
LoCoMoの実験では、Memboxは時間的推論タスクにおいて最大68%のF1改善を実現している。
- 参考スコア(独自算出の注目度): 14.666607208502185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-agent dialogues often exhibit topic continuity-a stable thematic frame that evolves through temporally adjacent exchanges-yet most large language model (LLM) agent memory systems fail to preserve it. Existing designs follow a fragmentation-compensation paradigm: they first break dialogue streams into isolated utterances for storage, then attempt to restore coherence via embedding-based retrieval. This process irreversibly damages narrative and causal flow, while biasing retrieval towards lexical similarity. We introduce membox, a hierarchical memory architecture centered on a Topic Loom that continuously monitors dialogue in a sliding-window fashion, grouping consecutive same-topic turns into coherent "memory boxes" at storage time. Sealed boxes are then linked by a Trace Weaver into long-range event-timeline traces, recovering macro-topic recurrences across discontinuities. Experiments on LoCoMo demonstrate that Membox achieves up to 68% F1 improvement on temporal reasoning tasks, outperforming competitive baselines (e.g., Mem0, A-MEM). Notably, Membox attains these gains while using only a fraction of the context tokens required by existing methods, highlighting a superior balance between efficiency and effectiveness. By explicitly modeling topic continuity, Membox offers a cognitively motivated mechanism for enhancing both coherence and efficiency in LLM agents.
- Abstract(参考訳): 人間とエージェントの対話は、しばしばトピックの連続性を示すが、これは時間的に隣接する交換(LLM)エージェントのメモリシステムがそれを保存できないため、進化する安定なテーマフレームである。
既存の設計はフラグメンテーション補償のパラダイムに従っており、まず対話ストリームを記憶のために孤立した発話に分割し、埋め込みベースの検索を通じてコヒーレンスを復元しようとする。
このプロセスは、語彙的類似性に対する検索を偏りながら、物語や因果の流れを不可逆的に損なう。
そこで我々は,Topic Loomを中心とした階層型メモリアーキテクチャであるmemboxを紹介した。このアーキテクチャはスライディングウインドウ方式で対話を継続的に監視し,連続する同トピック変換を記憶時にコヒーレントな「メモリボックス」にグループ化する。
シーリングボックスはTrace Weaverによって長距離イベントタイムライントレースにリンクされ、不連続性を越えてマクロトピックの再発を回復する。
LoCoMoの実験では、Memboxは時間的推論タスクにおいて最大68%のF1改善を実現し、競争ベースライン(例えば、Mem0、A-MEM)を上回っている。
特にMemboxは、既存のメソッドが必要とするコンテキストトークンのごく一部しか使用せず、効率と有効性のバランスが優れていることを強調しながら、これらの利益を達成している。
トピックの連続性を明示的にモデル化することにより、MemboxはLLMエージェントのコヒーレンスと効率の両方を強化する認知的動機付けのメカニズムを提供する。
関連論文リスト
- EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning [42.339841548168565]
大きな言語モデル(LLM)は、長期の対話エージェントとしてますますデプロイされているが、その限られたコンテキストウィンドウは、拡張された相互作用よりもコヒーレントな振舞いを維持するのが困難である。
本稿では,EverMemOSについて紹介する。EverMemOSは,計算メモリにエミュレートされたライフサイクルを実装した自己組織型メモリオペレーティングシステムである。
EverMemOSは、メモリ拡張推論タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-05T14:39:43Z) - CogMem: A Cognitive Memory Architecture for Sustained Multi-Turn Reasoning in Large Language Models [21.427373172124167]
大規模言語モデル(LLM)はシングルターン推論では優れているが、拡張されたマルチターン相互作用よりも精度とコヒーレンスを失うことが多い。
メモリ拡張型LLMアーキテクチャであるCogMemを導入する。
TurnBenchの実験では、この階層化された設計は推論の失敗を軽減し、コンテキストの成長を制御し、拡張された推論チェーン間の一貫性を改善する。
論文 参考訳(メタデータ) (2025-12-16T06:01:08Z) - MemVerse: Multimodal Memory for Lifelong Learning Agents [35.218549149012844]
我々は,モデルに依存しないプラグアンドプレイメモリフレームワークであるMemVerseを紹介した。
MemVerseは階層的検索ベースのメモリで高速パラメトリックリコールを行う。
スケーラブルで適応的なマルチモーダルインテリジェンスを実現する。
論文 参考訳(メタデータ) (2025-12-03T10:06:14Z) - Agentic Learner with Grow-and-Refine Multimodal Semantic Memory [50.81667005063605]
ViLoMemは、コンパクトなスキーマベースのメモリを構築するデュアルストリームメモリフレームワークである。
視覚的障害パターンと論理的推論エラーを符号化し、MLLMが成功し失敗した経験から学ぶことを可能にする。
論文 参考訳(メタデータ) (2025-11-26T18:55:08Z) - Memo: Training Memory-Efficient Embodied Agents with Reinforcement Learning [53.72709564555407]
Memoは、強化学習のためのトランスフォーマーベースのアーキテクチャとトレーニングのレシピである。
トレーニング中のモデルの入力と周期的な要約トークンをインターリーブすることで、メモリの生成と検索を組み込む。
グリッドワールドメタRLベンチマークとマルチオブジェクトナビゲーションタスクにおけるMemoの有効性を,フォトリアリスティック屋内環境で実証する。
論文 参考訳(メタデータ) (2025-10-22T16:24:47Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。