論文の概要: Did You Check the Right Pocket? Cost-Sensitive Store Routing for Memory-Augmented Agents
- arxiv url: http://arxiv.org/abs/2603.15658v1
- Date: Sun, 08 Mar 2026 09:12:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.850059
- Title: Did You Check the Right Pocket? Cost-Sensitive Store Routing for Memory-Augmented Agents
- Title(参考訳): 正しいポケットをチェックした? メモリ拡張エージェントのコスト感のあるストアルーティング
- Authors: Madhava Gaikwad,
- Abstract要約: メモリ拡張されたエージェントは複数の特別なストアを保持するが、ほとんどのシステムはクエリ毎にすべてのストアから取得し、コストを増大させ、無関係なコンテキストを導入する。
本稿では,メモリの検索をストアルーティング問題として定式化し,カバレッジ,正確なマッチング,トークン効率の指標を用いて評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory-augmented agents maintain multiple specialized stores, yet most systems retrieve from all stores for every query, increasing cost and introducing irrelevant context. We formulate memory retrieval as a store-routing problem and evaluate it using coverage, exact match, and token efficiency metrics. On downstream question answering, an oracle router achieves higher accuracy while using substantially fewer context tokens compared to uniform retrieval, demonstrating that selective retrieval improves both efficiency and performance. Our results show that routing decisions are a first-class component of memory-augmented agent design and motivate learned routing mechanisms for scalable multi-store systems. We additionally formalize store selection as a cost-sensitive decision problem that trades answer accuracy against retrieval cost, providing a principled interpretation of routing policies.
- Abstract(参考訳): メモリ拡張されたエージェントは複数の特別なストアを保持するが、ほとんどのシステムはクエリ毎にすべてのストアから取得し、コストを増大させ、無関係なコンテキストを導入する。
本稿では,メモリの検索をストアルーティング問題として定式化し,カバレッジ,正確なマッチング,トークン効率の指標を用いて評価する。
下流の質問応答において、オラクルルータは、一様検索に比べてコンテキストトークンを著しく少なくし、選択的検索が効率と性能の両方を改善することを示す。
その結果、ルーティング決定はメモリ拡張エージェント設計の第一級コンポーネントであり、スケーラブルなマルチストアシステムのための学習されたルーティング機構を動機付けていることがわかった。
また,検索コストに対して応答精度をトレードオフするコスト感受性決定問題としてストア選択を定式化し,ルーティングポリシーの原則的解釈を提供する。
関連論文リスト
- AMA: Adaptive Memory via Multi-Agent Collaboration [54.490349689939166]
複数の粒度にまたがるメモリ管理に協調エージェントを活用する新しいフレームワークであるAMA(Adaptive Memory via Multi-Agent Collaboration)を提案する。
AMAは、ステート・オブ・ザ・アートのベースラインを著しく上回り、トークンの消費をフルコンテキストの手法と比べて約80%削減する。
論文 参考訳(メタデータ) (2026-01-28T08:09:49Z) - Fine-Mem: Fine-Grained Feedback Alignment for Long-Horizon Memory Management [63.48041801851891]
Fine-Memは、きめ細かいフィードバックアライメントのために設計された統一されたフレームワークである。
MemalphaとMemoryAgentBenchの実験は、Fin-Memが強いベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-13T11:06:17Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - Leveraging Approximate Caching for Faster Retrieval-Augmented Generation [6.674782158041247]
本稿では,ユーザクエリの類似性を活用してRAGワークフローを最適化する,近似キー値キャッシュであるProximityを紹介する。
Proximityは、それぞれのクエリを独立して扱う代わりに、類似したクエリが現れると、以前検索されたドキュメントを再利用する。
我々の実験では、LSH方式と現実的にスキューされたMedRAGのワークロードとの近さは、データベースのリコールとテストの精度を維持しながら、データベース呼び出しを77.2%削減することを示した。
論文 参考訳(メタデータ) (2025-03-07T15:54:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。