論文の概要: AgentsNet: Coordination and Collaborative Reasoning in Multi-Agent LLMs
- arxiv url: http://arxiv.org/abs/2507.08616v1
- Date: Fri, 11 Jul 2025 14:13:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.382434
- Title: AgentsNet: Coordination and Collaborative Reasoning in Multi-Agent LLMs
- Title(参考訳): エージェントネットワーク:多エージェントLDMにおける協調と協調推論
- Authors: Florian Grötschla, Luis Müller, Jan Tönshoff, Mikhail Galkin, Bryan Perozzi,
- Abstract要約: マルチエージェント推論のための新しいベンチマークである AgentsNet を提案する。
我々はエージェントの同種ネットワークを含むエージェントネット上の様々なベースライン手法を評価する。
一部のフロンティアLSMは、既に小規模ネットワークに対して強力な性能を示しているが、ネットワークの規模が大きくなると崩壊し始める。
- 参考スコア(独自算出の注目度): 8.912989700822127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-language models (LLMs) have demonstrated powerful problem-solving capabilities, in particular when organized in multi-agent systems. However, the advent of such systems also raises several questions on the ability of a complex network of agents to effectively self-organize and collaborate. While measuring performance on standard reasoning benchmarks indicates how well multi-agent systems can solve reasoning tasks, it is unclear whether these systems are able to leverage their topology effectively. Here, we propose AgentsNet, a new benchmark for multi-agent reasoning. By drawing inspiration from classical problems in distributed systems and graph theory, AgentsNet measures the ability of multi-agent systems to collaboratively form strategies for problem-solving, self-organization, and effective communication given a network topology. We evaluate a variety of baseline methods on AgentsNet including homogeneous networks of agents which first have to agree on basic protocols for organization and communication. We find that some frontier LLMs are already demonstrating strong performance for small networks but begin to fall off once the size of the network scales. While existing multi-agent benchmarks cover at most 2-5 agents, AgentsNet is practically unlimited in size and can scale with new generations of LLMs. As such, we also probe frontier models in a setup with up to 100 agents.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特にマルチエージェントシステムにおいて、強力な問題解決能力を示している。
しかし、そのようなシステムが出現すると、エージェントの複雑なネットワークが効果的に自己組織化し協力する能力についていくつかの疑問が持ち上がる。
標準推論ベンチマークの性能測定は、マルチエージェントシステムが推論タスクをいかにうまく解決できるかを示すが、これらのシステムがそれらのトポロジを効果的に活用できるかどうかは不明である。
本稿では,マルチエージェント推論のための新しいベンチマークであるエージェントネットを提案する。
エージェントネットは、分散システムやグラフ理論の古典的な問題からインスピレーションを得て、ネットワークトポロジが与えられた問題解決、自己組織化、効果的なコミュニケーションのための戦略を協調的に形成するマルチエージェントシステムの能力を測定する。
我々は,まず組織とコミュニケーションの基本プロトコルに合意しなければならないエージェントの同質ネットワークを含む,エージェントネット上のさまざまなベースライン手法を評価する。
一部のフロンティアLSMは、既に小規模ネットワークに対して強力な性能を示しているが、ネットワークの規模が大きくなると崩壊し始める。
既存のマルチエージェントベンチマークは、少なくとも2-5エージェントをカバーするが、エージェントNetは事実上無制限で、新しい世代のLLMでスケールできる。
そのため、最大100エージェントのセットアップでフロンティアモデルを探索する。
関連論文リスト
- MetaAgent: Automatically Constructing Multi-Agent Systems Based on Finite State Machines [23.407716896592383]
本稿では,マルチエージェントシステムの自動生成が可能な有限状態マシンベースのフレームワークを提案する。
タスク記述を前提として、MetaAgentはマルチエージェントシステムを設計し、最適化アルゴリズムによってそれを洗練する。
マルチエージェントシステムがデプロイされると、有限状態マシンがエージェントのアクションと状態遷移を制御する。
論文 参考訳(メタデータ) (2025-07-30T12:22:30Z) - How to Train a Leader: Hierarchical Reasoning in Multi-Agent LLMs [16.853362180877593]
我々は、訓練されていないピアエージェントのチームを調整するために、単一のリーダーLDMのみを訓練する階層的なマルチエージェントフレームワークを導入する。
本結果は,複数エージェントLLMシステムにおける協調推論のための単一柔軟なリーダのトレーニングの有効性と効率性を強調した。
論文 参考訳(メタデータ) (2025-07-11T18:34:07Z) - Agentic Neural Networks: Self-Evolving Multi-Agent Systems via Textual Backpropagation [29.45297422127962]
階層型ニューラルネットワークアーキテクチャとしてマルチエージェントコラボレーションを概念化するフレームワークを提案する。
この設計では、各エージェントはノードとして動作し、各レイヤは特定のサブタスクに焦点を当てた「チーム」を形成する。
この結果から,ANNはマルチエージェントシステムのためのスケーラブルでデータ駆動型フレームワークであることがわかった。
論文 参考訳(メタデータ) (2025-06-10T17:59:21Z) - AgentNet: Decentralized Evolutionary Coordination for LLM-based Multi-Agent Systems [22.291969093748005]
AgentNet(エージェントネット)は、マルチエージェントシステムのための分散化された検索型生成(RAG)ベースのフレームワークである。
静的ロールや集中制御の以前のアプローチとは異なり、AgentNetはエージェントがローカルの専門知識とコンテキストに基づいて接続とタスクのルーティングを調整することができる。
実験の結果,AgentNetは単一エージェントと集中型マルチエージェントのベースラインよりも高いタスク精度を実現することがわかった。
論文 参考訳(メタデータ) (2025-04-01T09:45:25Z) - MultiAgentBench: Evaluating the Collaboration and Competition of LLM agents [59.825725526176655]
大規模言語モデル(LLM)は、自律的なエージェントとして顕著な能力を示している。
既存のベンチマークでは、単一エージェントタスクにフォーカスするか、狭いドメインに限定されており、マルチエージェントのコーディネーションと競合のダイナミクスを捉えていない。
多様な対話シナリオにまたがってLLMベースのマルチエージェントシステムを評価するためのベンチマークであるMultiAgentBenchを紹介する。
論文 参考訳(メタデータ) (2025-03-03T05:18:50Z) - Agent-Oriented Planning in Multi-Agent Systems [54.429028104022066]
マルチエージェントシステムにおけるエージェント指向計画のための新しいフレームワークであるAOPを提案する。
本研究では, エージェント指向計画の3つの重要な設計原則, 可解性, 完全性, 非冗長性を明らかにする。
大規模実験は,マルチエージェントシステムにおける単一エージェントシステムと既存の計画戦略と比較して,現実の問題を解決する上でのAOPの進歩を実証している。
論文 参考訳(メタデータ) (2024-10-03T04:07:51Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは、特殊エージェントをマルチエージェントシステムに自動的に拡張するジェネリックメソッドである。
EvoAgent は LLM エージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - Scaling Large Language Model-based Multi-Agent Collaboration [72.8998796426346]
近年の大規模言語モデル駆動型自律エージェントのブレークスルーにより、複数エージェントのコラボレーションが集団的推論を通じて各個人を上回ることが判明している。
本研究は、協調剤の連続的な添加が同様の利益をもたらすかどうかを考察する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - MASP: Scalable GNN-based Planning for Multi-Agent Navigation [18.70078556851899]
Multi-Agent Scalable Graph-based Planner (MASP)は、ナビゲーションタスクのためのゴール条件付き階層型プランナーである。
MASPは、大規模な探索空間を複数の目標条件付き部分空間に分解することで、空間の複雑さを低減するために階層的なフレームワークを採用している。
エージェントの協力とさまざまなチームサイズへの適応のために、エージェントと目標をグラフとしてモデル化し、それらの関係をよりよく捉えます。
論文 参考訳(メタデータ) (2023-12-05T06:05:04Z) - A Dynamic LLM-Powered Agent Network for Task-Oriented Agent Collaboration [55.35849138235116]
本稿では,様々なタスクやドメインに対する動的コミュニケーション構造において,候補からエージェントのチームを自動的に選択する手法を提案する。
具体的には, LLMを利用したエージェント協調のための動的LLMパワーエージェントネットワーク(textDyLAN$)というフレームワークを構築した。
我々は、コード生成、意思決定、一般的な推論、算術的推論タスクにおいて、適度な計算コストで、DyLANが強力なベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
MADiffは拡散型マルチエージェント学習フレームワークである。
分散ポリシと集中型コントローラの両方として機能する。
実験の結果,MADiffは様々なマルチエージェント学習タスクにおいて,ベースラインアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。