論文の概要: SuperLocalMemory V3: Information-Geometric Foundations for Zero-LLM Enterprise Agent Memory
- arxiv url: http://arxiv.org/abs/2603.14588v1
- Date: Sun, 15 Mar 2026 20:20:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.902939
- Title: SuperLocalMemory V3: Information-Geometric Foundations for Zero-LLM Enterprise Agent Memory
- Title(参考訳): SuperLocalMemory V3: Zero-LLM Enterprise Agent Memoryのための情報幾何学の基礎
- Authors: Varun Pratap Bhardwaj,
- Abstract要約: 永続メモリはAIエージェントの中心的な能力である。
現在のシステムでは、検索にはコサイン類似性、塩分分解にはコサイン類似性を使用し、公式な矛盾検出は行わない。
我々は3つのコントリビューションを通じて情報幾何学の基礎を確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Persistent memory is a central capability for AI agents, yet the mathematical foundations of memory retrieval, lifecycle management, and consistency remain unexplored. Current systems employ cosine similarity for retrieval, heuristic decay for salience, and provide no formal contradiction detection. We establish information-geometric foundations through three contributions. First, a retrieval metric derived from the Fisher information structure of diagonal Gaussian families, satisfying Riemannian metric axioms, invariant under sufficient statistics, and computable in O(d) time. Second, memory lifecycle formulated as Riemannian Langevin dynamics with proven existence and uniqueness of the stationary distribution via the Fokker-Planck equation, replacing hand-tuned decay with principled convergence guarantees. Third, a cellular sheaf model where non-trivial first cohomology classes correspond precisely to irreconcilable contradictions across memory contexts. On the LoCoMo benchmark, the mathematical layers yield +12.7 percentage points over engineering baselines across six conversations, reaching +19.9 pp on the most challenging dialogues. A four-channel retrieval architecture achieves 75% accuracy without cloud dependency. Cloud-augmented results reach 87.7%. A zero-LLM configuration satisfies EU AI Act data sovereignty requirements by architectural design. To our knowledge, this is the first work establishing information-geometric, sheaf-theoretic, and stochastic-dynamical foundations for AI agent memory systems.
- Abstract(参考訳): 永続メモリはAIエージェントの中心的な能力であるが、メモリ検索、ライフサイクル管理、一貫性の数学的基礎は未解明のままである。
現在のシステムでは、検索にはコサイン類似性、サリエンスにはヒューリスティック崩壊、公式な矛盾検出には対応していない。
我々は3つのコントリビューションを通じて情報幾何学の基礎を確立する。
第一に、対角ガウス族のフィッシャー情報構造から導かれる検索計量は、リーマン計量公理を満足し、十分な統計量の下で不変であり、O(d)時間で計算可能である。
第二に、リーマン・ランゲヴィン力学として定式化された記憶のライフサイクルは、フォッカー・プランク方程式を通じて定常分布の存在と特異性を証明し、手動減衰を原理収束保証に置き換える。
第3に、非自明な第一コホモロジークラスを持つセルラー層モデルが、メモリコンテキスト間の非可逆矛盾に正確に対応している。
LoCoMoのベンチマークでは、6つの会話でエンジニアリングベースラインを12.7%上回り、最も難しい対話では+19.9ppに達した。
4チャンネルの検索アーキテクチャは、クラウド依存なしに75%の精度を達成する。
クラウド拡張の結果は87.7%に達した。
ゼロLLM構成は、アーキテクチャ設計によるEU AI Actのデータ主権要件を満たす。
我々の知る限り、これはAIエージェントメモリシステムのための情報幾何学、層理論、確率力学の基礎を確立する最初の研究である。
関連論文リスト
- Graph-based Agent Memory: Taxonomy, Techniques, and Applications [63.70340159016138]
メモリはLarge Language Model(LLM)ベースのエージェントの中核モジュールとして出現する。
さまざまなパラダイムの中でグラフは、関係依存をモデル化する本質的な能力のため、エージェントメモリの強力な構造として際立っている。
本調査では, エージェントメモリの総合的な検討について, グラフベースの観点から述べる。
論文 参考訳(メタデータ) (2026-02-05T13:49:05Z) - E-mem: Multi-agent based Episodic Context Reconstruction for LLM Agent Memory [4.8183840404266185]
E-memは、メモリ前処理からエピソードコンテキスト再構成に移行するフレームワークである。
E-memは54%以上のF1を達成し、最先端のGAMを7.75%上回り、トークンコストを70%以上削減している。
論文 参考訳(メタデータ) (2026-01-29T13:42:42Z) - Chain-of-Memory: Lightweight Memory Construction with Dynamic Evolution for LLM Agents [26.39049374286037]
外部メモリシステムは、Large Language Model (LLM)エージェントが永続的な知識を維持し、長期にわたる意思決定を行うために重要である。
既存のパラダイムは一般に2段階のプロセスに従っている。
我々は,高度な利用と組み合わせた軽量構造へのパラダイムシフトを提唱する新しいフレームワークであるCoM(Chain-of-Memory)を提案する。
論文 参考訳(メタデータ) (2026-01-14T04:42:15Z) - SYNAPSE: Empowering LLM Agents with Episodic-Semantic Memory via Spreading Activation [29.545442480332515]
プリコンパイルされたリンクではなく静的を超越する統一メモリアーキテクチャであるSynapseを紹介する。
この結果から,Synapseは時間的およびマルチホップの複雑な推論タスクにおいて,最先端の手法を著しく上回ることがわかった。
私たちのコードとデータは受け入れ次第公開されます。
論文 参考訳(メタデータ) (2026-01-06T06:19:58Z) - MemSearcher: Training LLMs to Reason, Search and Manage Memory via End-to-End Reinforcement Learning [73.27233666920618]
本稿では,メモリを反復的に保持し,現在のターンと組み合わせたエージェントワークフローであるMemSearcherを提案する。
それぞれのターンで、MemSearcherはユーザーの質問をメモリに融合させ、推論トレースを生成し、検索アクションを実行し、メモリを更新してタスクの解決に必要な情報のみを保持する。
我々は,MemSearcher Agents の推論,検索戦略,メモリ管理を協調的に最適化する,エンドツーエンドの RL フレームワークである Multi-context GRPO を紹介する。
論文 参考訳(メタデータ) (2025-11-04T18:27:39Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - Beyond Turing: Memory-Amortized Inference as a Foundation for Cognitive Computation [5.234742752529437]
本稿では,メモリの潜時サイクル上での認識を推論としてモデル化する形式的フレームワークとして,メモリ記憶推論(MAI)を紹介した。
我々は,MAIがMountcastleのUniversal Cortical Algorithmの基本的な基盤を提供することを示す。
人工知能の実現にMAIが与える深い影響について,簡潔に論じる。
論文 参考訳(メタデータ) (2025-08-19T15:10:26Z) - Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory [0.5584627289325719]
大規模言語モデル(LLM)は、文脈的に一貫性のある応答を生成する際、顕著な進歩を示した。
しかし、それらの固定されたコンテキストウィンドウは、長時間のマルチセッション対話に対する一貫性を維持するための根本的な課題を生じさせる。
私たちはMem0というスケーラブルなメモリ中心アーキテクチャを導入し、進行中の会話から健全な情報を動的に抽出し、統合し、取得することでこの問題に対処します。
論文 参考訳(メタデータ) (2025-04-28T01:46:35Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - ROME: Robustifying Memory-Efficient NAS via Topology Disentanglement and
Gradient Accumulation [106.04777600352743]
微分可能なアーキテクチャサーチ(DARTS)は、スーパーネット全体がメモリに格納されているため、メモリコストが大幅に低下する。
シングルパスのDARTSが登場し、各ステップでシングルパスのサブモデルのみを選択する。
メモリフレンドリーだが、計算コストも低い。
RObustifying Memory-Efficient NAS (ROME) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-23T06:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。