論文の概要: Aeon: High-Performance Neuro-Symbolic Memory Management for Long-Horizon LLM Agents
- arxiv url: http://arxiv.org/abs/2601.15311v1
- Date: Wed, 14 Jan 2026 15:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.341121
- Title: Aeon: High-Performance Neuro-Symbolic Memory Management for Long-Horizon LLM Agents
- Title(参考訳): Aeon:ロングホライゾンLDM剤の高性能神経シンボリックメモリ管理
- Authors: Mustafa Arslan,
- Abstract要約: 大規模言語モデル(LLM)は、自己注意の2次計算コストと「中道の失われた」現象によって制約される。
我々は,静的ストアではなく,管理OSリソースとしてメモリを再定義するニューロシンボリック認知オペレーティングシステムであるAeonを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are fundamentally constrained by the quadratic computational cost of self-attention and the "Lost in the Middle" phenomenon, where reasoning capabilities degrade as context windows expand. Existing solutions, primarily "Flat RAG" architectures relying on vector databases, treat memory as an unstructured bag of embeddings. This approach fails to capture the hierarchical and temporal structure of long-horizon interactions, leading to "Vector Haze", the retrieval of disjointed facts lacking episodic continuity. We propose Aeon, a Neuro-Symbolic Cognitive Operating System that redefines memory not as a static store, but as a managed OS resource. Aeon structures memory into a Memory Palace (a spatial index implemented via Atlas, a SIMD-accelerated Page-Clustered Vector Index that combines small-world graph navigation with B+ Tree-style disk locality to minimize read amplification) and a Trace (a neuro-symbolic episodic graph). We introduce the Semantic Lookaside Buffer (SLB), a predictive caching mechanism that exploits conversational locality to achieve sub-millisecond retrieval latencies. Benchmarks demonstrate that Aeon achieves < 1ms retrieval latency on conversational workloads while ensuring state consistency via a zero-copy C++/Python bridge, effectively enabling persistent, structured memory for autonomous agents.
- Abstract(参考訳): 大規模言語モデル (LLMs) は、文脈ウィンドウが拡大するにつれて推論能力が低下する「中途半端」現象と2次計算コストによって、根本的な制約を受ける。
既存のソリューション、主にベクトルデータベースに依存した"Flat RAG"アーキテクチャは、メモリを非構造的な埋め込みの袋として扱う。
このアプローチは、長い水平相互作用の階層構造と時間構造を捉えることに失敗し、「ベクトル・ヘイズ(Vector Haze)」へと繋がる。
我々は,静的ストアではなく,管理OSリソースとしてメモリを再定義するニューロシンボリック認知オペレーティングシステムであるAeonを提案する。
Aeonはメモリをメモリパレス(Atlasによって実装された空間インデックス、SIMDで加速されたPage-Clustered Vector Index)に構成する。
本研究では,セマンティック・ルックアサイド・バッファ (SLB) を導入する。これは,会話の局所性を利用して,ミリ秒以下の検索レイテンシを実現するためのキャッシング機構である。
ベンチマークによると、Aeonは、ゼロコピーのC++/Pythonブリッジを通じて状態の一貫性を確保しながら、会話のワークロード上で1ms以下の検索レイテンシを実現し、自律エージェントの永続的構造化メモリを効果的に実現している。
関連論文リスト
- FlashMem: Distilling Intrinsic Latent Memory via Computation Reuse [4.210760734549566]
FlashMemは、計算再利用を通じて、過渡的推論状態から直接固有のメモリを蒸留するフレームワークである。
実験によると、FlashMemは5倍の推論遅延を減らしながら、重いベースラインのパフォーマンスと一致している。
論文 参考訳(メタデータ) (2026-01-09T03:27:43Z) - Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning [55.251697395358285]
大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするには、そのようなエージェントの重要な機能は、過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
イベント理論にインスパイアされたイベント中心のメモリフレームワークであるCompassMemを提案する。
論文 参考訳(メタデータ) (2026-01-08T08:44:07Z) - SYNAPSE: Empowering LLM Agents with Episodic-Semantic Memory via Spreading Activation [29.545442480332515]
プリコンパイルされたリンクではなく静的を超越する統一メモリアーキテクチャであるSynapseを紹介する。
この結果から,Synapseは時間的およびマルチホップの複雑な推論タスクにおいて,最先端の手法を著しく上回ることがわかった。
私たちのコードとデータは受け入れ次第公開されます。
論文 参考訳(メタデータ) (2026-01-06T06:19:58Z) - Warp-Cortex: An Asynchronous, Memory-Efficient Architecture for Million-Agent Cognitive Scaling on Consumer Hardware [0.0]
Warp Cortexは、理論的には百万単位の認知スケーリングを可能にする非同期アーキテクチャである。
計算遅延がボトルネックになる前に、100個の並行エージェントを2.2GBの全VRAMで実証し、理論的能力は1,000個を超えることを示した。
さらに,非侵入的KV-cache更新機構であるReferential Injectionを導入する。
論文 参考訳(メタデータ) (2026-01-03T23:11:21Z) - LiCoMemory: Lightweight and Cognitive Agentic Memory for Efficient Long-Term Reasoning [15.189701702660821]
LiCoMemoryはリアルタイム更新と検索のためのエンドツーエンドのエージェントメモリフレームワークである。
CoGraphは、エンティティとリレーションをセマンティックインデックス層として利用する、軽量な階層グラフである。
長期の対話ベンチマークであるLoCoMoとLongMemEvalの実験では、LiCoMemoryは時間的推論、マルチセッション一貫性、検索効率において確立されたベースラインを上回るだけでなく、更新レイテンシも顕著に低減している。
論文 参考訳(メタデータ) (2025-11-03T11:02:40Z) - Scalable Disk-Based Approximate Nearest Neighbor Search with Page-Aligned Graph [3.994346326254537]
本稿では,ディスクベースの近接探索(ANNS)フレームワークであるPageANNを提案する。
その結果、PageANNは最先端(SOTA)ディスクベースのANNS法を著しく上回り、1.85x-10.83倍のスループット、51.7%-91.9%のレイテンシを異なるデータセットとメモリ予算で達成した。
論文 参考訳(メタデータ) (2025-09-29T20:44:13Z) - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions [55.19217798774033]
メモリは、大規模言語モデル(LLM)ベースのエージェントを支える、AIシステムの基本コンポーネントである。
本稿ではまず,メモリ表現をパラメトリックおよびコンテキスト形式に分類する。
次に、コンソリデーション、更新、インデックス付け、フォッティング、検索、圧縮の6つの基本的なメモリ操作を紹介します。
論文 参考訳(メタデータ) (2025-05-01T17:31:33Z) - B'MOJO: Hybrid State Space Realizations of Foundation Models with Eidetic and Fading Memory [91.81390121042192]
我々はB'MOJOと呼ばれるモデル群を開発し、構成可能なモジュール内で理想的メモリと暗黙的メモリをシームレスに結合する。
B'MOJOのイデオティックメモリとフェードメモリを変調する能力は、32Kトークンまでテストされた長いシーケンスの推論をより良くする。
論文 参考訳(メタデータ) (2024-07-08T18:41:01Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。