論文の概要: Stochastic Self-Organization in Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2510.00685v1
- Date: Wed, 01 Oct 2025 09:08:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.485349
- Title: Stochastic Self-Organization in Multi-Agent Systems
- Title(参考訳): 多エージェントシステムにおける確率的自己組織化
- Authors: Nurbek Tastan, Samuel Horvath, Karthik Nandakumar,
- Abstract要約: LLM(Large Language Models)に基づくマルチエージェントシステム(MAS)は、単一のLLMの範囲を超えているタスクを解く可能性がある。
通信をオンザフライで適応する応答条件付きフレームワークを提案する。
- 参考スコア(独自算出の注目度): 28.70691568233268
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-agent systems (MAS) based on Large Language Models (LLMs) have the potential to solve tasks that are beyond the reach of any single LLM. However, this potential can only be realized when the collaboration mechanism between agents is optimized. Specifically, optimizing the communication structure between agents is critical for fruitful collaboration. Most existing approaches rely on fixed topologies, pretrained graph generators, optimization over edges, or employ external LLM judges, thereby adding to the complexity. In this work, we introduce a response-conditioned framework that adapts communication on-the-fly. Agents independently generate responses to the user query and assess peer contributions using an approximation of the Shapley value. A directed acyclic graph (DAG) is then constructed to regulate the propagation of the responses among agents, which ensures stable and efficient message transmission from high-contributing agents to others. This graph is dynamically updated based on the agent responses from the previous collaboration round. Since the proposed framework enables the self-organization of agents without additional supervision or training, we refer to it as SelfOrg. The SelfOrg framework goes beyond task- and query-level optimization and takes into account the stochastic nature of agent responses. Experiments with both strong and weak LLM backends demonstrate robust performance, with significant gains in the weak regime where prior methods collapse. We also theoretically show that multiple agents increase the chance of correctness and that the correct responses naturally dominate the information flow.
- Abstract(参考訳): LLM(Large Language Models)に基づくマルチエージェントシステム(MAS)は、単一のLLMの範囲を超えているタスクを解く可能性がある。
しかし,エージェント間の協調機構が最適化された場合にのみ実現可能である。
具体的には,エージェント間のコミュニケーション構造を最適化することが,実りあるコラボレーションに不可欠である。
既存のアプローチのほとんどは、固定トポロジ、事前訓練されたグラフジェネレータ、エッジの最適化、または外部のLCMジャッジを使用するため、複雑さが増す。
本研究では,通信をオンザフライで適応する応答条件付きフレームワークを提案する。
エージェントは、ユーザクエリに対する応答を独立して生成し、Shapley値の近似を用いてピアコントリビューションを評価する。
誘導非環状グラフ(DAG)は、エージェント間の応答の伝搬を規制するために構築され、ハイコントリビュートエージェントから他のエージェントへの安定かつ効率的なメッセージ送信が保証される。
このグラフは、前回のコラボレーションラウンドのエージェント応答に基づいて動的に更新される。
提案する枠組みは、追加の監督や訓練なしにエージェントの自己組織化を可能にするため、セルフオーグ(SelfOrg)と呼ぶ。
SelfOrgフレームワークは、タスクとクエリレベルの最適化を超えて、エージェント応答の確率的性質を考慮に入れている。
強いLLMバックエンドと弱いLLMバックエンドの両方の実験は堅牢な性能を示し、先行メソッドが崩壊する弱い状態において顕著に向上した。
また,複数のエージェントが正当性を高め,正しい応答が情報の流れを左右していることも理論的に示している。
関連論文リスト
- InfiAgent: Self-Evolving Pyramid Agent Framework for Infinite Scenarios [28.65914611521654]
InfiAgentはピラミッドのようなDAGベースのMulti-Agent Frameworkで、textbfinfiniteのシナリオに適用できる。
InfiAgentはADAS(類似の自動生成エージェントフレームワーク)と比較して9.9%高いパフォーマンスを実現している
論文 参考訳(メタデータ) (2025-09-26T15:44:09Z) - Multi-Agent Collaboration via Evolving Orchestration [61.93162413517026]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMをベースとしたマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し、中央オーケストレータがタスク状態の進化に応じてエージェントを動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [112.04307762405669]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - Agent-FLAN: Designing Data and Methods of Effective Agent Tuning for Large Language Models [56.00992369295851]
オープンソースのLarge Language Models(LLM)は、さまざまなNLPタスクで大きな成功を収めていますが、エージェントとして振る舞う場合、それでもAPIベースのモデルよりもはるかに劣っています。
本稿では,(1) エージェント学習コーパスを,(1) エージェント学習データの分布から大きくシフトするエージェント推論と,(2) エージェントタスクが必要とする能力に異なる学習速度を示すエージェント学習コーパスと,(3) 幻覚を導入することでエージェント能力を改善する際の副作用について述べる。
本稿では,エージェントのためのFLANモデルを効果的に構築するためのエージェントFLANを提案する。
論文 参考訳(メタデータ) (2024-03-19T16:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。