論文の概要: SwiftMem: Fast Agentic Memory via Query-aware Indexing
- arxiv url: http://arxiv.org/abs/2601.08160v1
- Date: Tue, 13 Jan 2026 02:51:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.029116
- Title: SwiftMem: Fast Agentic Memory via Query-aware Indexing
- Title(参考訳): SwiftMem:クエリ対応インデックスによるエージェントメモリの高速化
- Authors: Anxin Tian, Yiming Li, Xing Li, Hui-Ling Zhen, Lei Chen, Xianzhi Yu, Zhenhua Dong, Mingxuan Yuan,
- Abstract要約: 我々は,時間的・意味的次元の特殊インデックス化によるサブ線形検索を実現する,クエリ対応のエージェントメモリシステムであるSwiftMemを提案する。
DAG-Tagインデックスは、階層的なタグ構造を通して、クエリを関連するトピックにマッピングする。
LoCoMoとLongMemEvalベンチマークの実験では、SwiftMemは最先端のベースラインに比べて47$times$高速検索を実現している。
- 参考スコア(独自算出の注目度): 45.27116353623848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agentic memory systems have become critical for enabling LLM agents to maintain long-term context and retrieve relevant information efficiently. However, existing memory frameworks suffer from a fundamental limitation: they perform exhaustive retrieval across the entire storage layer regardless of query characteristics. This brute-force approach creates severe latency bottlenecks as memory grows, hindering real-time agent interactions. We propose SwiftMem, a query-aware agentic memory system that achieves sub-linear retrieval through specialized indexing over temporal and semantic dimensions. Our temporal index enables logarithmic-time range queries for time-sensitive retrieval, while the semantic DAG-Tag index maps queries to relevant topics through hierarchical tag structures. To address memory fragmentation during growth, we introduce an embedding-tag co-consolidation mechanism that reorganizes storage based on semantic clusters to improve cache locality. Experiments on LoCoMo and LongMemEval benchmarks demonstrate that SwiftMem achieves 47$\times$ faster search compared to state-of-the-art baselines while maintaining competitive accuracy, enabling practical deployment of memory-augmented LLM agents.
- Abstract(参考訳): エージェントメモリシステムは、LLMエージェントが長期的コンテキストを維持し、関連情報を効率的に取得できるようにするために重要になっている。
しかし、既存のメモリフレームワークは、クエリ特性に関係なく、ストレージ層全体にわたって徹底的な検索を行うという、根本的な制限に悩まされている。
このブルートフォースアプローチは、メモリの増大に伴って深刻なレイテンシボトルネックを引き起こし、リアルタイムエージェントのインタラクションを妨げる。
我々は,時間的・意味的次元の特殊インデックス化によるサブ線形検索を実現する,クエリ対応のエージェントメモリシステムであるSwiftMemを提案する。
DAG-Tagインデックスは、階層的なタグ構造を通して、クエリを関連するトピックにマッピングする。
成長中のメモリ断片化を解決するために,セマンティッククラスタに基づくストレージを再編成し,キャッシュの局所性を改善する組込みタグ統合機構を導入する。
LoCoMoとLongMemEvalベンチマークの実験では、SwiftMemは、最先端のベースラインに比べて47$\times$高速な検索を実現し、競合精度を維持しながら、メモリ拡張LDMエージェントの実用的なデプロイを可能にしている。
関連論文リスト
- Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning [55.251697395358285]
大規模言語モデル(LLM)は、環境を推論し、計画し、相互作用するインテリジェントエージェントとして、ますます多くデプロイされている。
長期のシナリオに効果的にスケールするには、そのようなエージェントの重要な機能は、過去の経験を保持し、整理し、取り出すことができるメモリメカニズムである。
イベント理論にインスパイアされたイベント中心のメモリフレームワークであるCompassMemを提案する。
論文 参考訳(メタデータ) (2026-01-08T08:44:07Z) - MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents [4.4848347718892425]
Memory-Augmented Generation (MAG) は、Large Language Modelsを外部メモリで拡張し、長文推論をサポートする。
既存のアプローチは、モノリシックなメモリストアに対するセマンティックな類似性に大きく依存しており、時間的、因果的、実体的な情報を絡み合わせる。
本稿では, 意味, 時間, 因果, 実体グラフにまたがる各メモリ項目を表すマルチグラフエージェントメモリアーキテクチャであるMAGMAを提案する。
論文 参考訳(メタデータ) (2026-01-06T18:29:43Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - MemSearcher: Training LLMs to Reason, Search and Manage Memory via End-to-End Reinforcement Learning [73.27233666920618]
本稿では,メモリを反復的に保持し,現在のターンと組み合わせたエージェントワークフローであるMemSearcherを提案する。
それぞれのターンで、MemSearcherはユーザーの質問をメモリに融合させ、推論トレースを生成し、検索アクションを実行し、メモリを更新してタスクの解決に必要な情報のみを保持する。
我々は,MemSearcher Agents の推論,検索戦略,メモリ管理を協調的に最適化する,エンドツーエンドの RL フレームワークである Multi-context GRPO を紹介する。
論文 参考訳(メタデータ) (2025-11-04T18:27:39Z) - LiCoMemory: Lightweight and Cognitive Agentic Memory for Efficient Long-Term Reasoning [15.189701702660821]
LiCoMemoryはリアルタイム更新と検索のためのエンドツーエンドのエージェントメモリフレームワークである。
CoGraphは、エンティティとリレーションをセマンティックインデックス層として利用する、軽量な階層グラフである。
長期の対話ベンチマークであるLoCoMoとLongMemEvalの実験では、LiCoMemoryは時間的推論、マルチセッション一貫性、検索効率において確立されたベースラインを上回るだけでなく、更新レイテンシも顕著に低減している。
論文 参考訳(メタデータ) (2025-11-03T11:02:40Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。