論文の概要: Understanding Agent Scaling in LLM-Based Multi-Agent Systems via Diversity
- arxiv url: http://arxiv.org/abs/2602.03794v1
- Date: Tue, 03 Feb 2026 17:58:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.622657
- Title: Understanding Agent Scaling in LLM-Based Multi-Agent Systems via Diversity
- Title(参考訳): LLMに基づく多エージェントシステムにおけるエージェントスケーリングの多様性による理解
- Authors: Yingxuan Yang, Chengrui Qu, Muning Wen, Laixi Shi, Ying Wen, Weinan Zhang, Adam Wierman, Shangding Gu,
- Abstract要約: エージェント数ではなく,本質的なタスクの不確実性によってMAS性能が拘束されていることを示す情報理論フレームワークを提案する。
アーキテクチャに依存しないバウンダリを導出し、システムへのアクセスする有効なチャネルの数に依存することを示す。
本結果は,多様性を意識した設計を通じて,効率的で堅牢なMASを構築するための原則的ガイドラインを提供する。
- 参考スコア(独自算出の注目度): 48.409368133277525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based multi-agent systems (MAS) have emerged as a promising approach to tackle complex tasks that are difficult for individual LLMs. A natural strategy is to scale performance by increasing the number of agents; however, we find that such scaling exhibits strong diminishing returns in homogeneous settings, while introducing heterogeneity (e.g., different models, prompts, or tools) continues to yield substantial gains. This raises a fundamental question: what limits scaling, and why does diversity help? We present an information-theoretic framework showing that MAS performance is bounded by the intrinsic task uncertainty, not by agent count. We derive architecture-agnostic bounds demonstrating that improvements depend on how many effective channels the system accesses. Homogeneous agents saturate early because their outputs are strongly correlated, whereas heterogeneous agents contribute complementary evidence. We further introduce $K^*$, an effective channel count that quantifies the number of effective channels without ground-truth labels. Empirically, we show that heterogeneous configurations consistently outperform homogeneous scaling: 2 diverse agents can match or exceed the performance of 16 homogeneous agents. Our results provide principled guidelines for building efficient and robust MAS through diversity-aware design. Code and Dataset are available at the link: https://github.com/SafeRL-Lab/Agent-Scaling.
- Abstract(参考訳): LLMベースのマルチエージェントシステム(MAS)は、個々のLLMにとって困難な複雑なタスクに対処するための有望なアプローチとして登場した。
エージェント数を増やすことでパフォーマンスを拡大することが自然な戦略であるが、そのようなスケーリングは均質な設定で強く低下するリターンを示す一方で、異種性(例えば、異なるモデル、プロンプト、ツール)を導入しても大きな利益をもたらすことが分かる。
スケーリングに制限があるのか、なぜ多様性が役に立つのか?
エージェント数ではなく,本質的なタスクの不確実性によってMAS性能が拘束されていることを示す情報理論フレームワークを提案する。
アーキテクチャに依存しないバウンダリを導出し、システムへのアクセスする有効なチャネルの数に依存することを示す。
均一剤は出力が強く相関しているため、早期に飽和する一方、異種剤は相補的な証拠に寄与する。
さらに,実効チャネル数である$K^*$を導入する。
実験により, 不均一な構成が均一なスケーリングを一貫して上回り, 2種類の多様なエージェントが16種類の均一なエージェントの性能に適合または超えることを示した。
本結果は,多様性を意識した設計により,効率的で堅牢なMASを構築するための原則的ガイドラインを提供する。
コードとデータセットはリンクで入手できる。 https://github.com/SafeRL-Lab/Agent-Scaling。
関連論文リスト
- Multi-Agent Deep Research: Training Multi-Agent Systems with M-GRPO [24.532870400949424]
現在の訓練方法は、システム内のすべてのエージェントに対して統一された大きな言語モデルを訓練する。
これにより、異なるエージェントの基本的な分布が異なるため、パフォーマンスが制限される可能性がある。
垂直多エージェントシステムに対するグループ相対ポリシー最適化の階層的拡張であるM-GRPOを提案する。
論文 参考訳(メタデータ) (2025-11-17T12:06:30Z) - Reasoning with Confidence: Efficient Verification of LLM Reasoning Steps via Uncertainty Heads [104.9566359759396]
データ駆動の不確実性スコアに基づくステップレベルの推論検証の軽量な代替案を提案する。
本研究は, LLMの内部状態が不確実性を符号化し, 信頼性の高い検証信号として機能することが示唆された。
論文 参考訳(メタデータ) (2025-11-09T03:38:29Z) - AgentRouter: A Knowledge-Graph-Guided LLM Router for Collaborative Multi-Agent Question Answering [51.07491603393163]
tAgentは知識グラフ誘導ルーティング問題としてマルチエージェントQAを定式化するフレームワークである。
エージェントアウトプットのソフトな監督と重み付けされた集約を活用することで、エージェントは多様なエージェントの相補的な強みを捉える、原則化された協調スキームを学ぶ。
論文 参考訳(メタデータ) (2025-10-06T23:20:49Z) - Difficulty-Aware Agentic Orchestration for Query-Specific Multi-Agent Workflows [5.376980683850103]
本稿では,予測困難により誘導されるクエリ固有多エージェントを生成するDifficulty-Aware Agentic Orchestration (DAAO)を提案する。
DAAOは、精度と推論効率の両方において、従来のマルチエージェントシステムを上回る。
論文 参考訳(メタデータ) (2025-09-14T03:57:43Z) - Multiple Weaks Win Single Strong: Large Language Models Ensemble Weak Reinforcement Learning Agents into a Supreme One [28.264011412168347]
モデルアンサンブルは強化学習(RL)において有効なエージェントの訓練に有用である。
LLM-Ensは,タスク固有の意味理解を用いてRLモデルのアンサンブルを強化する手法である。
論文 参考訳(メタデータ) (2025-05-21T09:35:43Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは、特殊エージェントをマルチエージェントシステムに自動的に拡張するジェネリックメソッドである。
EvoAgent は LLM エージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
MADiffは拡散型マルチエージェント学習フレームワークである。
分散ポリシと集中型コントローラの両方として機能する。
実験の結果,MADiffは様々なマルチエージェント学習タスクにおいて,ベースラインアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。