論文の概要: Learning Query-Aware Budget-Tier Routing for Runtime Agent Memory
- arxiv url: http://arxiv.org/abs/2602.06025v1
- Date: Thu, 05 Feb 2026 18:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.146179
- Title: Learning Query-Aware Budget-Tier Routing for Runtime Agent Memory
- Title(参考訳): 実行時エージェントメモリのためのクエリ対応予算階層ルーティングの学習
- Authors: Haozhen Zhang, Haodong Yue, Tao Feng, Quanyu Long, Jianzhu Bao, Bowen Jin, Weizhi Zhang, Xiao Li, Jiaxuan You, Chengwei Qin, Wenya Wang,
- Abstract要約: BudgetMemは、明示的でクエリ対応のパフォーマンスコスト管理のためのランタイムエージェントメモリフレームワークである。
軽量ルータは、タスク性能とメモリ構築コストのバランスをとるために、モジュール間の予算層ルーティングを実行する。
LoCoMo、LongMemEval、HotpotQAの他、BudgetMemはパフォーマンスが優先されるときに、強力なベースラインを超える。
- 参考スコア(独自算出の注目度): 56.0946692457838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory is increasingly central to Large Language Model (LLM) agents operating beyond a single context window, yet most existing systems rely on offline, query-agnostic memory construction that can be inefficient and may discard query-critical information. Although runtime memory utilization is a natural alternative, prior work often incurs substantial overhead and offers limited explicit control over the performance-cost trade-off. In this work, we present \textbf{BudgetMem}, a runtime agent memory framework for explicit, query-aware performance-cost control. BudgetMem structures memory processing as a set of memory modules, each offered in three budget tiers (i.e., \textsc{Low}/\textsc{Mid}/\textsc{High}). A lightweight router performs budget-tier routing across modules to balance task performance and memory construction cost, which is implemented as a compact neural policy trained with reinforcement learning. Using BudgetMem as a unified testbed, we study three complementary strategies for realizing budget tiers: implementation (method complexity), reasoning (inference behavior), and capacity (module model size). Across LoCoMo, LongMemEval, and HotpotQA, BudgetMem surpasses strong baselines when performance is prioritized (i.e., high-budget setting), and delivers better accuracy-cost frontiers under tighter budgets. Moreover, our analysis disentangles the strengths and weaknesses of different tiering strategies, clarifying when each axis delivers the most favorable trade-offs under varying budget regimes.
- Abstract(参考訳): メモリは、単一のコンテキストウインドウを越えて動作するLarge Language Model (LLM)エージェントの中心的存在になりつつあるが、既存のほとんどのシステムはオフラインでクエリに依存しないメモリ構造に依存しており、非効率であり、クエリクリティカルな情報を破棄する可能性がある。
実行時のメモリ利用は自然な代替手段だが、以前の作業は大きなオーバーヘッドを伴い、パフォーマンスコストのトレードオフに対して限定的なコントロールを提供することが多い。
本稿では,明示的なクエリ対応パフォーマンスコスト制御のための実行時エージェントメモリフレームワークである \textbf{BudgetMem} を紹介する。
BudgetMemはメモリ処理をメモリモジュールのセットとして構成し、それぞれが3つの予算層(すなわち \textsc{Low}/\textsc{Mid}/\textsc{High})で提供される。
軽量ルータは、タスク性能とメモリ構築コストのバランスをとるためにモジュール間の予算層ルーティングを実行し、強化学習で訓練されたコンパクトなニューラルポリシーとして実装される。
BudgetMemを統合テストベッドとして使用し、実装(メソッドの複雑さ)、推論(推論の振る舞い)、キャパシティ(モジュールモデルサイズ)という、予算層を実現するための3つの補完的な戦略について検討する。
LoCoMo、LongMemEval、HotpotQAにまたがって、BudgetMemはパフォーマンスが優先される(高予算設定)ときに強力なベースラインを超え、より厳格な予算の下でより精度の高いフロンティアを提供する。
さらに、分析は異なる階層戦略の強みと弱みを解き、各軸が様々な予算体制の下で最も有利なトレードオフをいつ達成するかを明確にする。
関連論文リスト
- MemOCR: Layout-Aware Visual Memory for Efficient Long-Horizon Reasoning [36.52465672754168]
本稿では,コンテキスト予算の厳しい長期推論を改善するマルチモーダルメモリエージェントであるMemOCRを紹介する。
MemOCRは、視覚的レイアウトを通じて適応的な情報密度でメモリ空間を割り当てる。
我々は,多種多様な圧縮レベルにエージェントを露出する予算対応目標の下で,強化学習でMemOCRを訓練する。
論文 参考訳(メタデータ) (2026-01-29T09:47:17Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - AgentBalance: Backbone-then-Topology Design for Cost-Effective Multi-Agent Systems under Budget Constraints [7.38359558170225]
大規模言語モデル(LLM)ベースのマルチエージェントシステム(MAS)は、Webスケールアプリケーションにとって必須のビルディングブロックになりつつある。
我々は、トークンコストと遅延の明確な予算の下で、コスト効率の良いMASを構築するためのフレームワークであるAgentBalanceを提案する。
論文 参考訳(メタデータ) (2025-12-12T10:08:03Z) - BudgetMem: Learning Selective Memory Policies for Cost-Efficient Long-Context Processing in Language Models [0.0]
BudgetMemは、すべてを記憶するのではなく、何を記憶すべきかを学ぶ、新しいメモリ拡張アーキテクチャである。
本システムでは,厳格な予算制約下での記憶にどのような価値があるかを決定するために,選択的メモリポリシーと特徴に基づくサリエンススコアを併用する。
我々の研究は、高度な言語理解能力へのアクセスを民主化し、控えめなハードウェア上で有能な長期コンテキストシステムをデプロイするための実践的な経路を提供する。
論文 参考訳(メタデータ) (2025-11-07T01:49:22Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。