論文の概要: Learning to Share: Selective Memory for Efficient Parallel Agentic Systems
- arxiv url: http://arxiv.org/abs/2602.05965v1
- Date: Thu, 05 Feb 2026 18:20:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.110247
- Title: Learning to Share: Selective Memory for Efficient Parallel Agentic Systems
- Title(参考訳): 共有学習:効率的な並列エージェントシステムのための選択記憶
- Authors: Joseph Fioresi, Parth Parag Kulkarni, Ashmal Vayani, Song Wang, Mubarak Shah,
- Abstract要約: エージェントシステムは、反復的に推論する複数のエージェントを調整することで複雑なタスクを解決し、ツールを呼び出し、中間結果を交換する。
最近のアプローチでは、さまざまな推論の軌跡を探索するために、複数のエージェントチームが並行して運用されている。
我々は並列エージェントフレームワークのための学習された共有メモリ機構であるLearning to Share (LTS)を提案する。
- 参考スコア(独自算出の注目度): 49.78267008828593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agentic systems solve complex tasks by coordinating multiple agents that iteratively reason, invoke tools, and exchange intermediate results. To improve robustness and solution quality, recent approaches deploy multiple agent teams running in parallel to explore diverse reasoning trajectories. However, parallel execution comes at a significant computational cost: when different teams independently reason about similar sub-problems or execute analogous steps, they repeatedly perform substantial overlapping computation. To address these limitations, in this paper, we propose Learning to Share (LTS), a learned shared-memory mechanism for parallel agentic frameworks that enables selective cross-team information reuse while controlling context growth. LTS introduces a global memory bank accessible to all teams and a lightweight controller that decides whether intermediate agent steps should be added to memory or not. The controller is trained using stepwise reinforcement learning with usage-aware credit assignment, allowing it to identify information that is globally useful across parallel executions. Experiments on the AssistantBench and GAIA benchmarks show that LTS significantly reduces overall runtime while matching or improving task performance compared to memory-free parallel baselines, demonstrating that learned memory admission is an effective strategy for improving the efficiency of parallel agentic systems. Project page: https://joefioresi718.github.io/LTS_webpage/
- Abstract(参考訳): エージェントシステムは、反復的に推論する複数のエージェントを調整することで複雑なタスクを解決し、ツールを呼び出し、中間結果を交換する。
堅牢性とソリューションの品質を改善するため、最近のアプローチでは、複数のエージェントチームが並行して運用され、さまざまな推論軌道を探索している。
しかし、並列実行には相当な計算コストがかかる: 異なるチームが独立して類似のサブプロブレムを推論したり、類似のステップを実行した場合、それらは重なり合う計算を繰り返し実行する。
本稿では,並列エージェントフレームワークのための学習用共有メモリ機構であるLearning to Share(LTS)を提案する。
LTSでは、すべてのチームにアクセス可能なグローバルメモリバンクと、中間エージェントステップをメモリに追加するかどうかを決定する軽量コントローラが導入されている。
コントローラは、ステップワイズ強化学習と、使用量に応じたクレジット割り当てを使用してトレーニングされ、並列実行全体でグローバルに有用な情報を特定することができる。
AssistantBenchとGAIAベンチマークの実験では、LTSはメモリフリーの並列ベースラインと比較して、タスクパフォーマンスをマッチングしたり改善したりしながら、全体の実行時間を著しく削減している。
プロジェクトページ: https://joefioresi718.github.io/LTS_webpage/
関連論文リスト
- RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - MEM1: Learning to Synergize Memory and Reasoning for Efficient Long-Horizon Agents [84.62985963113245]
我々は,長時間のマルチターンタスクに対して,エージェントが一定のメモリで動作可能な,エンドツーエンドの強化学習フレームワークMEM1を紹介する。
各ターンでMEM1は、メモリ統合と推論を共同でサポートするコンパクトな共有内部状態を更新する。
その結果,MEM1-7Bは16目的のマルチホップQAタスクにおいて,Qwen2.5-14B-Instructと比較してメモリ使用量を3.7倍削減し,3.5倍の性能向上を示す。
論文 参考訳(メタデータ) (2025-06-18T19:44:46Z) - Hogwild! Inference: Parallel LLM Generation via Concurrent Attention [28.79949544705571]
大規模言語モデル(LLM)は、高度な推論、長文コンテンツ生成、ツールの使用を通じて、ますます複雑なタスクに取り組む。
推論: 同じLLMの複数のインスタンスが同じアテンションキャッシュと並行して動作し、相互のメモリに"インスタント"アクセスする並列LLM推論エンジン。
最新の推論可能なLCMは、追加の微調整をすることなく、共有キーバリューキャッシュで推論を行うことができる。
論文 参考訳(メタデータ) (2025-04-08T17:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。