論文の概要: Multi-Agent Teams Hold Experts Back
- arxiv url: http://arxiv.org/abs/2602.01011v2
- Date: Tue, 03 Feb 2026 04:46:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:28:03.715116
- Title: Multi-Agent Teams Hold Experts Back
- Title(参考訳): マルチエージェントチームは専門家を後押しする
- Authors: Aneesh Pappu, Batu El, Hancheng Cao, Carmelo di Nolfo, Yanchao Sun, Meng Cao, James Zou,
- Abstract要約: 自己組織化LDMチームが強力なシナジーを達成できるかどうかを考察する。
人間のチームとは違って、LLMチームは、専門家のエージェントのパフォーマンスと一貫して一致しないのです。
私たちは、識別ではなく、専門家の活用が主要なボトルネックであることを示しています。
- 参考スコア(独自算出の注目度): 37.015657067301355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent LLM systems are increasingly deployed as autonomous collaborators, where agents interact freely rather than execute fixed, pre-specified workflows. In such settings, effective coordination cannot be fully designed in advance and must instead emerge through interaction. However, most prior work enforces coordination through fixed roles, workflows, or aggregation rules, leaving open the question of how well self-organizing teams perform when coordination is unconstrained. Drawing on organizational psychology, we study whether self-organizing LLM teams achieve strong synergy, where team performance matches or exceeds the best individual member. Across human-inspired and frontier ML benchmarks, we find that -- unlike human teams -- LLM teams consistently fail to match their expert agent's performance, even when explicitly told who the expert is, incurring performance losses of up to 37.6%. Decomposing this failure, we show that expert leveraging, rather than identification, is the primary bottleneck. Conversational analysis reveals a tendency toward integrative compromise -- averaging expert and non-expert views rather than appropriately weighting expertise -- which increases with team size and correlates negatively with performance. Interestingly, this consensus-seeking behavior improves robustness to adversarial agents, suggesting a trade-off between alignment and effective expertise utilization. Our findings reveal a significant gap in the ability of self-organizing multi-agent teams to harness the collective expertise of their members.
- Abstract(参考訳): マルチエージェントLLMシステムは、固定された特定のワークフローを実行するのではなく、エージェントが自由に対話する自律的なコラボレータとして、ますます多くデプロイされている。
このような環境では、効果的なコーディネーションは事前に完全に設計できず、代わりにインタラクションを通じて実現されなければならない。
しかしながら、以前の作業のほとんどは、固定された役割、ワークフロー、あるいは集約ルールを通じて調整を強制し、調整が制約されないときに自己組織化チームがどの程度うまく機能するかという疑問を解き放ちます。
組織心理学に基づいて,自己組織型LLMチームが強いシナジーを達成できるかどうかを考察する。
人間にインスパイアされた、よりフロンティアなMLベンチマークでは、LLMチームは、専門家が誰であるかを明確に知らされたとしても、常に専門家のエージェントのパフォーマンスと一致せず、パフォーマンス損失が最大37.6%に達することが分かりました。
この失敗を分解すると、識別よりも専門家を活用することが主要なボトルネックであることを示します。
会話分析は、チームのサイズが増加し、パフォーマンスと負の相関関係を持つ、統合的な妥協 - 専門知識を適切に重み付けするよりも、平均的な専門家と非専門家の見解 - の傾向を明らかにします。
興味深いことに、この合意を求める行動は、敵エージェントに対する堅牢性を改善し、アライメントと効果的な専門的利用のトレードオフを示唆している。
この結果から,自己組織型マルチエージェントチームにおいて,メンバの専門知識を活用できる能力に,大きなギャップがあることが判明した。
関連論文リスト
- Collaborative Causal Sensemaking: Closing the Complementarity Gap in Human-AI Decision Support [0.0]
LLMベースのエージェントは、専門家による意思決定支援のためにますます多くデプロイされている。
しかし、ハイテイクな設定の人間-AIチームは、最高の個人を確実に上回っているわけではない。
現在のエージェントは、専門家が実際に意思決定を行うコラボレーティブなセンスメイキングのパートナとしてではなく、回答エンジンとして訓練されています。
論文 参考訳(メタデータ) (2025-12-08T18:30:41Z) - SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - Completion $\neq$ Collaboration: Scaling Collaborative Effort with Agents [48.95020665909723]
タスク完了エージェントの構築と評価から,協調エージェントの開発への移行を議論する。
エージェントのユーティリティがユーザ関与の増加とともにどのように成長するかをキャプチャするフレームワークであるコラボレーティブ・ワーク・スケーリングを紹介します。
論文 参考訳(メタデータ) (2025-10-29T17:47:18Z) - Learning "Partner-Aware" Collaborators in Multi-Party Collaboration [12.287537011305497]
大規模言語モデル(LLM)は,人間との共同作業を行うエージェント設定にデプロイされることが増えている。
本稿では、協調行動に関する新たな理論的洞察を提供するために、AIアライメントと安全な割り込み可能性文献に基づく。
CG-最適協調者を訓練するための新しいパートナー認識学習アルゴリズムであるInterruptible Collaborative Roleplayer (ICR)を提案する。
論文 参考訳(メタデータ) (2025-10-26T00:05:48Z) - Who is Helping Whom? Analyzing Inter-dependencies to Evaluate Cooperation in Human-AI Teaming [13.263258837438045]
本研究では,人間とエージェントの協力関係を評価するための重要な指標として,建設的相互依存の概念を提案する。
その結果,訓練されたエージェントは高いタスク報酬を得られるが,協調行動の誘発には失敗していることがわかった。
分析の結果,チームリングのパフォーマンスは必ずしもタスク報酬と相関していないことが明らかとなり,タスク報酬だけでは協調を確実に測定できないことがわかった。
論文 参考訳(メタデータ) (2025-02-10T19:16:20Z) - Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [50.657070334404835]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - Collaboration Dynamics and Reliability Challenges of Multi-Agent LLM Systems in Finite Element Analysis [3.437656066916039]
インターエイジェントダイナミクスが推論の品質と信頼性にどのように影響するかは、まだ不明である。
線形弾性有限要素解析(FEA)のためのAutoGenベースのマルチエージェントフレームワークを用いたこれらのメカニズムについて検討する。
1,120のコントロールされたトライアルから、コラボレーションの有効性は、チームのサイズよりも機能的な相補性に依存することが分かりました。
論文 参考訳(メタデータ) (2024-08-23T23:11:08Z) - TeamLoRA: Boosting Low-Rank Adaptation with Expert Collaboration and Competition [61.91764883512776]
我々は,専門家のためのコラボレーション・コンペティション・モジュールからなる,革新的なPEFT手法であるTeamLoRAを紹介する。
そうすることで、TeamLoRAは専門家を"チーム"として内部のコラボレーションや競争に結び付け、マルチタスク学習のためのより高速で正確なPEFTパラダイムを可能にします。
論文 参考訳(メタデータ) (2024-08-19T09:58:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。