論文の概要: Single-Agent Scaling Fails Multi-Agent Intelligence: Towards Foundation Models with Native Multi-Agent Intelligence
- arxiv url: http://arxiv.org/abs/2512.08743v3
- Date: Tue, 16 Dec 2025 16:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 14:48:05.902992
- Title: Single-Agent Scaling Fails Multi-Agent Intelligence: Towards Foundation Models with Native Multi-Agent Intelligence
- Title(参考訳): シングルエージェントスケーリングがマルチエージェントインテリジェンスを損なう - ネイティブマルチエージェントインテリジェンスによる基盤モデルを目指して
- Authors: Shuyue Hu, Haoyang Yan, Yiqun Zhang, Yang Chen, Dongzhan Zhou, Lei Bai,
- Abstract要約: ファンデーションモデル(FM)は、AIエージェントの「脳」の役割をますます想定している。
次のフロンティアは、FMにネイティブなマルチエージェントインテリジェンスを提供することだ、と私たちは主張する。
- 参考スコア(独自算出の注目度): 31.894599220520718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models (FMs) are increasingly assuming the role of the ''brain'' of AI agents. While recent efforts have begun to equip FMs with native single-agent abilities -- such as GUI interaction or integrated tool use -- we argue that the next frontier is endowing FMs with native multi-agent intelligence. We identify four core capabilities of FMs in multi-agent contexts: understanding, planning, efficient communication, and adaptation. Contrary to assumptions about the spontaneous emergence of such abilities, we provide extensive empirical evidence, across 41 large language models and 7 challenging benchmarks, showing that scaling single-agent performance alone does not automatically yield robust multi-agent intelligence. To address this gap, we outline key research directions -- spanning dataset construction, evaluation, training paradigms, and safety considerations -- for building FMs with native multi-agent intelligence.
- Abstract(参考訳): ファンデーションモデル(FM)は、AIエージェントの「脳」の役割をますます想定している。
最近の取り組みでは、GUIのインタラクションや統合ツールの使用といった、ネイティブな単一エージェント能力を備えたFMの装備が始まっていますが、次のフロンティアは、ネイティブなマルチエージェントインテリジェンスを備えたFMの提供である、と私たちは主張しています。
マルチエージェントコンテキストにおけるFMの4つのコア機能(理解,計画,効率的なコミュニケーション,適応)を同定する。
このような能力の自然発生に関する仮定とは対照的に、41の大規模言語モデルと7つの挑戦的なベンチマークから、単一エージェントのパフォーマンスのスケーリングだけでは、堅牢なマルチエージェントインテリジェンスを自動生成できないことを示す広範な実証的証拠を提供する。
このギャップに対処するため、ネイティブなマルチエージェントインテリジェンスでFMを構築するための、データセットの構築、評価、トレーニングパラダイム、安全性に関する重要な研究の方向性を概説する。
関連論文リスト
- A Survey on Agentic Multimodal Large Language Models [84.18778056010629]
エージェントマルチモーダル大言語モデル(Agentic MLLMs)に関する総合的な調査を行う。
我々は,エージェントMLLMの新たなパラダイムを探求し,その概念的基盤を明確にし,従来のMLLMエージェントとの特徴を区別する。
コミュニティのためのこの分野の研究をさらに加速するため、エージェントMLLMを開発するためのオープンソースのトレーニングフレームワーク、トレーニングおよび評価データセットをコンパイルする。
論文 参考訳(メタデータ) (2025-10-13T04:07:01Z) - SFR-DeepResearch: Towards Effective Reinforcement Learning for Autonomously Reasoning Single Agents [93.26456498576181]
本稿では,ディープリサーチのためのネイティブ自律単エージェントモデルの開発に焦点をあてる。
我々の最良の変種であるSFR-DR-20Bは、HumanityのLast Examベンチマークで28.7%に達する。
論文 参考訳(メタデータ) (2025-09-08T02:07:09Z) - COMMA: A Communicative Multimodal Multi-Agent Benchmark [15.329501174451677]
マルチモーダルマルチエージェントシステムの協調性能を評価するための新しいパズルベンチマークであるCOMMAを紹介する。
GPT-4oのような強力なプロプライエタリモデルや、o4-miniのような推論モデルなど、最先端モデルの驚くべき弱点が明らかになった。
R1-OnevisionやLLaVA-CoTのような多くの思考推論モデルは、エージェントとエージェントのコラボレーションにおいて、ランダムなベースラインよりも優れている。
論文 参考訳(メタデータ) (2024-10-10T02:49:47Z) - An Interactive Agent Foundation Model [49.77861810045509]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。