論文の概要: Continuum Memory Architectures for Long-Horizon LLM Agents
- arxiv url: http://arxiv.org/abs/2601.09913v1
- Date: Wed, 14 Jan 2026 22:40:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.912967
- Title: Continuum Memory Architectures for Long-Horizon LLM Agents
- Title(参考訳): 長期LDMエージェントの連続記憶アーキテクチャ
- Authors: Joe Logan,
- Abstract要約: Retrieval-augmented Generation (RAG) は、文脈知識を備えた大規模言語モデル(LLM)エージェントのデフォルト戦略となっている。
textitContinuum Memory Architecture (CMA)は、インタラクション間の内部状態をメンテナンスし、更新するシステムのクラスです。
我々は、RAGの構造的欠如が記憶の蓄積、突然変異、曖昧さを露呈するタスクに対して、一貫した振る舞い上の利点を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) has become the default strategy for providing large language model (LLM) agents with contextual knowledge. Yet RAG treats memory as a stateless lookup table: information persists indefinitely, retrieval is read-only, and temporal continuity is absent. We define the \textit{Continuum Memory Architecture} (CMA), a class of systems that maintain and update internal state across interactions through persistent storage, selective retention, associative routing, temporal chaining, and consolidation into higher-order abstractions. Rather than disclosing implementation specifics, we specify the architectural requirements CMA imposes and show consistent behavioral advantages on tasks that expose RAG's structural inability to accumulate, mutate, or disambiguate memory. The empirical probes (knowledge updates, temporal association, associative recall, contextual disambiguation) demonstrate that CMA is a necessary architectural primitive for long-horizon agents while highlighting open challenges around latency, drift, and interpretability.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は、文脈知識を備えた大規模言語モデル(LLM)エージェントのデフォルト戦略となっている。
しかし、RAGはメモリをステートレスなルックアップテーブルとして扱い、情報は無限に持続し、検索は読み取り専用であり、時間的連続性は欠如している。
我々は、永続ストレージ、選択的保持、連想ルーティング、時間的連鎖、高階抽象化への統合を通じて、相互作用の内部状態を維持および更新するシステムのクラスである、‘textit{Continuum Memory Architecture} (CMA) を定義する。
実装の詳細を開示するのではなく、CMAが課すアーキテクチャ要件を規定し、RAGの構造的欠如が記憶の蓄積、変更、曖昧さを露呈するタスクに対して一貫した振る舞い上の優位性を示す。
経験的プローブ(知識更新、時間的関連、連想的リコール、文脈的曖昧さ)は、CMAが長期エージェントに必要なアーキテクチャ的プリミティブであり、レイテンシ、ドリフト、解釈可能性に関するオープンな課題を強調していることを示している。
関連論文リスト
- Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - Beyond Fact Retrieval: Episodic Memory for RAG with Generative Semantic Workspaces [5.110309385104824]
大きな言語モデル(LLM)は、長いコンテキスト推論において根本的な課題に直面します。
現在のソリューションでは、エピソードイベントを通じてエンティティを追跡するのに必要な、時空間で記述された物語表現を構築することができない。
我々は,ニューロインスパイアされた生成記憶フレームワークである textbf Generative Semantic Workspace (GSW) を提案する。
論文 参考訳(メタデータ) (2025-11-10T19:59:34Z) - AssoMem: Scalable Memory QA with Multi-Signal Associative Retrieval [28.858496175399623]
本稿では,対話発話をアンロックして手がかりを自動的に抽出する連想記憶グラフ構築フレームワークAssoMemを提案する。
AssoMemはSOTAベースラインを一貫して上回り、コンテキスト対応メモリリコールにおいてその優位性を検証する。
論文 参考訳(メタデータ) (2025-10-12T01:23:23Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - Respecting Temporal-Causal Consistency: Entity-Event Knowledge Graphs for Retrieval-Augmented Generation [69.45495166424642]
我々は,物語文書における時間的,因果的,文字的整合性を理解するために,頑健で差別的なQAベンチマークを開発する。
次に、バイナリマッピングでリンクされたエンティティとイベントのサブグラフを分離したまま保持するデュアルグラフフレームワークであるEntity-Event RAG(E2RAG)を紹介します。
ChronoQA全体で、我々のアプローチは最先端の非構造化およびKGベースのRAGベースラインよりも優れており、因果一貫性クエリや文字整合性クエリが顕著である。
論文 参考訳(メタデータ) (2025-06-06T10:07:21Z) - Contextual Memory Reweaving in Large Language Models Using Layered Latent State Reconstruction [0.0]
シーケンスの長さが増加するにつれて、トークン依存は低下し、一貫性と事実整合性が低下する。
異なる処理層でキャプチャされた潜伏状態の再織り直しを通じてこの問題を軽減するための構造化されたアプローチが導入された。
提案されたContextual Memory Reweavingフレームワークには、Lambed Latent State Restructationメカニズムが組み込まれている。
論文 参考訳(メタデータ) (2025-02-04T06:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。