論文の概要: MonoScale: Scaling Multi-Agent System with Monotonic Improvement
- arxiv url: http://arxiv.org/abs/2601.23219v1
- Date: Fri, 30 Jan 2026 17:44:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.590486
- Title: MonoScale: Scaling Multi-Agent System with Monotonic Improvement
- Title(参考訳): MonoScale: モノトニック改善によるマルチエージェントシステムのスケーリング
- Authors: Shuai Shao, Yixiang Liu, Bingwei Lu, Weinan Zhang,
- Abstract要約: LLMベースのマルチエージェントシステム(MAS)は、タスクを分解し、サブタスクを特殊エージェントに委譲するルータを用いて急速に進歩している。
我々は,エージェント条件の慣れ親しんだタスクを積極的に生成する拡張対応更新フレームワークであるMonoScaleを提案する。
逐次拡張を文脈的バンディットとして形式化し、信頼領域のメモリ更新を行い、単調な非遅延性能を保証する。
- 参考スコア(独自算出の注目度): 20.21975833664762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, LLM-based multi-agent systems (MAS) have advanced rapidly, using a router to decompose tasks and delegate subtasks to specialized agents. A natural way to expand capability is to scale up the agent pool by continually integrating new functional agents or tool interfaces, but naive expansion can trigger performance collapse when the router cold-starts on newly added, heterogeneous, and unreliable agents. We propose MonoScale, an expansion-aware update framework that proactively generates a small set of agent-conditioned familiarization tasks, harvests evidence from both successful and failed interactions, and distills it into auditable natural-language memory to guide future routing. We formalize sequential augmentation as a contextual bandit and perform trust-region memory updates, yielding a monotonic non-decreasing performance guarantee across onboarding rounds. Experiments on GAIA and Humanity's Last Exam show stable gains as the agent pool grows, outperforming naive scale-up and strong-router fixed-pool baselines.
- Abstract(参考訳): 近年、LLMベースのマルチエージェントシステム(MAS)が急速に進歩し、ルータを用いてタスクを分解し、サブタスクを特殊エージェントに委譲している。
機能拡張の自然な方法は、新しい機能エージェントやツールインターフェースを継続的に統合することでエージェントプールをスケールアップすることだ。
エージェント条件の慣れ親しみのあるタスクを積極的に生成し、成功と失敗の両方から証拠を抽出し、それを監査可能な自然言語メモリに蒸留して将来のルーティングを誘導する、拡張対応更新フレームワークであるMonoScaleを提案する。
逐次拡張をコンテキスト的バンディットとして形式化し、信頼領域のメモリ更新を行い、オンボーディングラウンド全体で単調な非遅延性能を保証する。
GAIAとHumanityのLast Examの実験は、エージェントプールが成長するにつれて安定したゲインを示し、単純スケールアップと強いルーター固定プールベースラインを上回っている。
関連論文リスト
- GenAgent: Scaling Text-to-Image Generation via Agentic Multimodal Reasoning [54.42973725693]
我々は,エージェント型マルチモーダルモデルを用いて,視覚的理解と生成を統一したGenAgentを導入する。
GenAgentはGenEval++とWISEのベースジェネレータ(FLUX.1-dev)のパフォーマンスを大幅に向上させる。
本フレームワークは,1) 様々な機能を持つジェネレータへのクロスツール一般化,2) インタラクションラウンド間で一貫した改善を伴うテスト時間スケーリング,3) タスクに自動的に適応するタスク適応推論の3つの重要な特性を示す。
論文 参考訳(メタデータ) (2026-01-26T14:49:04Z) - Multi-Agent Deep Research: Training Multi-Agent Systems with M-GRPO [24.532870400949424]
現在の訓練方法は、システム内のすべてのエージェントに対して統一された大きな言語モデルを訓練する。
これにより、異なるエージェントの基本的な分布が異なるため、パフォーマンスが制限される可能性がある。
垂直多エージェントシステムに対するグループ相対ポリシー最適化の階層的拡張であるM-GRPOを提案する。
論文 参考訳(メタデータ) (2025-11-17T12:06:30Z) - Free Agent in Agent-Based Mixture-of-Experts Generative AI Framework [0.0]
強化学習自由エージェント (Reinforcement Learning Free Agent, RLFA) アルゴリズムは、永続的な過パフォーマンスを示すエージェントを検出し、除去するための報酬に基づくメカニズムを導入する。
第一のユースケースは不正検出であり、RLFAは事前に設定された閾値以下で検出精度が低下するエージェントを即座に交換する。
このダイナミックでフリーの緊急サイクルは、持続的な正確さ、出現する脅威への迅速な適応、進行中の運用に対する最小限の中断を保証する。
論文 参考訳(メタデータ) (2025-01-29T13:00:22Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [112.04307762405669]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。