論文の概要: Towards a Science of Collective AI: LLM-based Multi-Agent Systems Need a Transition from Blind Trial-and-Error to Rigorous Science
- arxiv url: http://arxiv.org/abs/2602.05289v1
- Date: Thu, 05 Feb 2026 04:19:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.758826
- Title: Towards a Science of Collective AI: LLM-based Multi-Agent Systems Need a Transition from Blind Trial-and-Error to Rigorous Science
- Title(参考訳): 集合AIの科学に向けて:LLMベースのマルチエージェントシステムは、ブラインドトライアルとエラーから厳密な科学への移行を必要とする
- Authors: Jingru Fan, Dewen Liu, Yufan Dang, Huatao Li, Yuheng Wang, Wei Liu, Feiyu Duan, Xuanwen Ding, Shu Yao, Lin Wu, Ruijie Shi, Wai-Shing Leung, Yuan Cheng, Zhongyu Wei, Cheng Yang, Chen Qian, Zhiyuan Liu, Maosong Sun,
- Abstract要約: 大規模言語モデル(LLM)はマルチエージェントシステム(MAS)の機能を大幅に拡張した。
この急速な進歩にもかかわらず、この分野はいまだに実証的な試行錯誤に大きく依存している。
このボトルネックは、帰属の曖昧さに起因している。
本稿では,協調運転要因を体系的に同定する要因帰属パラダイムを提案する。
- 参考スコア(独自算出の注目度): 70.3658845234978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have greatly extended the capabilities of Multi-Agent Systems (MAS), demonstrating significant effectiveness across a wide range of complex and open-ended domains. However, despite this rapid progress, the field still relies heavily on empirical trial-and-error. It lacks a unified and principled scientific framework necessary for systematic optimization and improvement. This bottleneck stems from the ambiguity of attribution: first, the absence of a structured taxonomy of factors leaves researchers restricted to unguided adjustments; second, the lack of a unified metric fails to distinguish genuine collaboration gain from mere resource accumulation. In this paper, we advocate for a transition to design science through an integrated framework. We advocate to establish the collaboration gain metric ($Γ$) as the scientific standard to isolate intrinsic gains from increased budgets. Leveraging $Γ$, we propose a factor attribution paradigm to systematically identify collaboration-driving factors. To support this, we construct a systematic MAS factor library, structuring the design space into control-level presets and information-level dynamics. Ultimately, this framework facilitates the transition from blind experimentation to rigorous science, paving the way towards a true science of Collective AI.
- Abstract(参考訳): 近年のLLM(Large Language Models)はマルチエージェントシステム(Multi-Agent Systems、MAS)の機能を大幅に拡張し、幅広い複雑な領域とオープンエンドドメインにおいて大きな効果を発揮している。
しかし、この急速な進歩にもかかわらず、この分野はいまだに実証的な試行錯誤に大きく依存している。
体系的な最適化と改善に必要な統一的で原則化された科学的枠組みが欠如している。
このボトルネックは、帰属の曖昧さに起因している: 第一に、要因の構造化された分類がないことは、研究者が誘導されていない調整に制限されていること、第二に、統一された計量の欠如は、単なる資源蓄積から真のコラボレーションの利益を区別するのに失敗する。
本稿では,統合フレームワークによるデザイン科学への移行を提唱する。
我々は、予算の増大から本質的な利得を分離する科学的基準として、コラボレーションゲイン指標の確立を提唱する。
そこで我々は,協調運転要因を体系的に同定する要因帰属パラダイムを提案する。
これをサポートするために、設計空間を制御レベルプリセットと情報レベルダイナミクスに構造化する、系統的なMAS因子ライブラリを構築した。
最終的に、このフレームワークは盲目の実験から厳格な科学への移行を促進し、集団AIの真の科学への道を歩む。
関連論文リスト
- ATHENA: Agentic Team for Hierarchical Evolutionary Numerical Algorithms [4.235429894371577]
AtheNAは、エンドツーエンドの計算研究ライフサイクルを管理するためにAutonomous Labとして設計されたエージェントフレームワークである。
その中核は知識駆動型診断プロセスであるHENAループである。
このフレームワークは超人的パフォーマンスを実現し、検証エラーは10~14ドルに達する。
論文 参考訳(メタデータ) (2025-12-03T06:05:27Z) - SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - Multi-Objective Bilevel Learning [12.198330173886587]
多目的二段階学習(MOBL)の理論的・アルゴリズム的基礎について検討する。
我々のゴールは、効率的なMOBL最適化アルゴリズムを開発することである。
我々は、重み付きチェビシェフ多重高次勾配(WC-MHGD)と呼ばれる統一的なアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T04:42:14Z) - Topological Structure Learning Should Be A Research Priority for LLM-Based Multi-Agent Systems [69.95482609893236]
大規模言語モデルに基づくマルチエージェントシステム(MAS)は、協調的な知性によって複雑なタスクに取り組むための強力なパラダイムとして登場した。
我々は,エージェント間相互作用の構造を明示的にモデル化し,動的に最適化する,エフェトロジーを意識したMASへのパラダイムシフトを求める。
論文 参考訳(メタデータ) (2025-05-28T15:20:09Z) - Multi-Agent Collaboration via Evolving Orchestration [55.574417128944226]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMに基づくマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し,タスク状態の進化に応じて,中央集権的なオーケストレータ("puppeteer")がエージェント("puppets")を動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - SoK: Software Compartmentalization [3.058923790501231]
大規模なシステムを小さなコンポーネントに分解することは、エクスプロイトの影響を最小限に抑える効果的な方法として長年認識されてきた。
歴史的ルーツ、実証された利益、そして学術と産業における多くの研究努力にもかかわらず、ソフトウェアの区画化は依然として主流ではない。
本稿では,構成化アプローチの体系的分析,比較,指示のための統一モデルを提案する。
論文 参考訳(メタデータ) (2024-10-11T00:38:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。