論文の概要: ScaleSim: Serving Large-Scale Multi-Agent Simulation with Invocation Distance-Based Memory Management
- arxiv url: http://arxiv.org/abs/2601.21473v1
- Date: Thu, 29 Jan 2026 09:52:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.716219
- Title: ScaleSim: Serving Large-Scale Multi-Agent Simulation with Invocation Distance-Based Memory Management
- Title(参考訳): ScaleSim: 呼び出し距離に基づくメモリ管理による大規模マルチエージェントシミュレーションの実現
- Authors: Zaifeng Pan, Yipeng Shen, Zhengding Hu, Zhuang Wang, Aninda Manocha, Zheng Wang, Zhongkai Yu, Yue Guan, Yufei Ding,
- Abstract要約: LLMベースのシミュレーションは、アプリケーションドメイン間でますます採用されているが、GPUメモリの圧力のために拡張が困難である。
大規模マルチエージェントシミュレーションのためのメモリ効率の良いLLMサービスシステムであるScaleSimを提案する。
- 参考スコア(独自算出の注目度): 11.653587206247053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based multi-agent simulations are increasingly adopted across application domains, but remain difficult to scale due to GPU memory pressure. Each agent maintains private GPU-resident states, including models, prefix caches, and adapters, which quickly exhaust device memory as the agent count grows. We identify two key properties of these workloads: sparse agent activation and an estimable agent invocation order. Based on an analysis of representative workload classes, we introduce invocation distance, a unified abstraction that estimates the relative order in which agents will issue future LLM requests. Leveraging this abstraction, we present ScaleSim, a memory-efficient LLM serving system for large-scale multi-agent simulations. ScaleSim enables proactive prefetching and priority-based eviction, supports diverse agent-specific memory through a modular interface, and achieves up to 1.74x speedup over SGLang on simulation benchmarks.
- Abstract(参考訳): LLMベースのマルチエージェントシミュレーションは、アプリケーションドメイン全体でますます採用されているが、GPUメモリの圧力のために拡張が困難である。
各エージェントは、モデル、プレフィックスキャッシュ、アダプタなど、プライベートなGPU常駐状態を保持しており、エージェント数が増加するにつれてデバイスメモリが急速に枯渇する。
これらのワークロードには,スパースエージェントアクティベーションと推定エージェント呼び出し順序という,2つの重要な特性がある。
代表的ワークロードクラスの解析に基づいて、エージェントが将来のLCM要求を発行する相対順序を推定する統合抽象化である呼び出し距離を導入する。
この抽象化を活用し,大規模マルチエージェントシミュレーションのためのメモリ効率の高いLLMサービスシステムであるScaleSimを提案する。
ScaleSimはプロアクティブなプリフェッチと優先度ベースの消去を可能にし、モジュールインターフェースを通じて多様なエージェント固有のメモリをサポートし、シミュレーションベンチマークでSGLangよりも最大1.74倍のスピードアップを達成する。
関連論文リスト
- SimuAgent: An LLM-Based Simulink Modeling Assistant Enhanced with Reinforcement Learning [3.1436750864792375]
我々は,Simulinkに適したモデリングおよびシミュレーションエージェントであるSimuAgentを紹介する。
SimuAgentはXMLを簡潔な辞書スタイルのPython表現に置き換え、トークン数を劇的に削減する。
2段階で訓練された軽量な計画実行アーキテクチャは、エージェントに低レベルのツールスキルと高レベルの設計推論の両方を装備する。
論文 参考訳(メタデータ) (2026-01-08T18:10:35Z) - Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - LEGOMem: Modular Procedural Memory for Multi-agent LLM Systems for Workflow Automation [20.746613323853584]
ワークフロー自動化における多エージェント大規模言語モデル(LLM)システムのためのモジュール型プロシージャメモリフレームワークであるLEGOMemを紹介する。
我々は,マルチエージェントシステムにおける手続き的メモリの体系的研究を行い,どのメモリをどこに配置すべきか,どのように取り出すべきか,どのエージェントが最も有用かを検討する。
論文 参考訳(メタデータ) (2025-10-06T14:39:53Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - Very Large-Scale Multi-Agent Simulation in AgentScope [112.98986800070581]
我々は,ユーザフレンドリーなマルチエージェントプラットフォームであるAgentScopeの新機能とコンポーネントを開発した。
高いスケーラビリティと高効率を実現するために,アクタをベースとした分散機構を提案する。
また、多数のエージェントを便利に監視し、管理するためのWebベースのインターフェースも提供します。
論文 参考訳(メタデータ) (2024-07-25T05:50:46Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。