論文の概要: Symphony: A Decentralized Multi-Agent Framework for Scalable Collective Intelligence
- arxiv url: http://arxiv.org/abs/2508.20019v1
- Date: Wed, 27 Aug 2025 16:27:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.700605
- Title: Symphony: A Decentralized Multi-Agent Framework for Scalable Collective Intelligence
- Title(参考訳): Symphony: スケーラブルなコレクションインテリジェンスのための分散マルチエージェントフレームワーク
- Authors: Ji Wang, Kashing Chen, Xinyuan Song, Ke Zhang, Lynn Ai, Eric Yang, Bill Shi,
- Abstract要約: Symphony(シンフォニー)は、軽量大規模言語モデル(LLM)エージェントの協調を可能にする分散マルチエージェントシステムである。
本稿では,(1)機能を記録する分散台帳,(2)動的タスク割り当てのためのBeacon-selectionプロトコル,(3)CoTに基づく重み付け結果投票の3つのメカニズムを紹介する。
経験的に、Symphonyは、推論ベンチマークで既存のベースラインを上回り、相当な精度のゲインを達成し、様々な能力を持つモデル間で堅牢性を示す。
- 参考スコア(独自算出の注目度): 6.2787050166062315
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most existing Large Language Model (LLM)-based agent frameworks rely on centralized orchestration, incurring high deployment costs, rigid communication topologies, and limited adaptability. To address these challenges, we introduce Symphony, a decentralized multi-agent system which enables lightweight LLMs on consumer-grade GPUs to coordinate. Symphony introduces three key mechanisms: (1) a decentralized ledger that records capabilities, (2) a Beacon-selection protocol for dynamic task allocation, and (3) weighted result voting based on CoTs. This design forms a privacy-saving, scalable, and fault-tolerant orchestration with low overhead. Empirically, Symphony outperforms existing baselines on reasoning benchmarks, achieving substantial accuracy gains and demonstrating robustness across models of varying capacities.
- Abstract(参考訳): 既存のLarge Language Model(LLM)ベースのエージェントフレームワークのほとんどは、集中的なオーケストレーション、高いデプロイメントコスト、堅固な通信トポロジ、限定的な適応性などに依存している。
このような課題に対処するために,コンシューマグレードのGPU上で軽量LLMの協調を可能にする分散マルチエージェントシステムであるSymphonyを導入する。
Symphonyは、(1)機能を記録する分散台帳、(2)動的タスク割り当てのためのBeacon-selectionプロトコル、(3)CoTに基づく重み付け結果投票という3つの主要なメカニズムを導入している。
この設計は、低オーバーヘッドで、プライバシ保護、スケーラブル、フォールトトレラントなオーケストレーションを形成する。
経験的に、Symphonyは、推論ベンチマークで既存のベースラインを上回り、相当な精度のゲインを達成し、様々な能力を持つモデル間で堅牢性を示す。
関連論文リスト
- AdaptOrch: Task-Adaptive Multi-Agent Orchestration in the Era of LLM Performance Convergence [0.0]
AdaptOrchはタスク適応型マルチエージェントオーケストレーションのための正式なフレームワークである。
トポロジ対応オーケストレーションは、静的シングルトポロジベースラインよりも12~23%改善されている。
論文 参考訳(メタデータ) (2026-02-18T21:00:05Z) - MAS-Orchestra: Understanding and Improving Multi-Agent Reasoning Through Holistic Orchestration and Controlled Benchmarks [86.05918381895555]
関数呼び出し強化学習問題としてMASオーケストレーションを定式化する訓練時間フレームワークとしてMASOrchestraを提案する。
MAS-Orchestraでは、複雑なゴール指向のサブエージェントは呼び出し可能な関数として抽象化され、システム構造に対する大域的推論を可能にする。
分析の結果,MASはタスク構造や検証プロトコル,オーケストレータとサブエージェントの両方の機能に大きく依存していることが判明した。
論文 参考訳(メタデータ) (2026-01-21T04:57:02Z) - HALO: Semantic-Aware Distributed LLM Inference in Lossy Edge Network [50.33808558714122]
エッジでの大規模言語モデル(LLM)推論は、ユーザのプライバシを保護すると同時に、サービスの応答性を促進する。
損失エッジネットワークにおける分散LLM推論を向上する新しいフレームワークであるHALOを提案する。
Raspberry Piクラスタによる実験の結果、HALOは信頼性の低いネットワーク条件下でLLaMAシリーズLLMの3.41倍のエンドツーエンドのスピードアップを達成した。
論文 参考訳(メタデータ) (2026-01-16T07:37:23Z) - A2R: An Asymmetric Two-Stage Reasoning Framework for Parallel Reasoning [57.727084580884075]
モデルポテンシャルと実際の性能の間のギャップを埋めるために設計された非対称な2段階推論フレームワーク。
A2R-Efficientは、Qwen3-4BとQwen3-8Bシンセサイザーを組み合わせた「小型から大型」の派生型である。
その結果、A2Rはパフォーマンス・ブートスティングのフレームワークであるだけでなく、現実世界のアプリケーションに対して効率的かつ実用的なソリューションであることがわかった。
論文 参考訳(メタデータ) (2025-09-26T08:27:03Z) - Federation of Agents: A Semantics-Aware Communication Fabric for Large-Scale Agentic AI [1.8244641115869653]
エージェントのフェデレーション(FoA)は,マルチエージェントのコーディネーションを動的かつ能力駆動的なコラボレーションに変換する分散オーケストレーションフレームワークである。
FoAは、セマンティック埋め込みを通じてエージェント機能を検索可能にするマシン可読プロファイルであるVersioned Capability Vectors (VCVs)を導入した。
単一モデルベースラインよりも13倍の改善が見られ、クラスタリング強化労働力は複雑な推論タスクに特に有効である。
論文 参考訳(メタデータ) (2025-09-24T14:38:06Z) - FindRec: Stein-Guided Entropic Flow for Multi-Modal Sequential Recommendation [50.438552588818]
textbfFindRec (textbfFlexible unified textbfinformation textbfdisentanglement for multi-modal sequence textbfRecommendation)を提案する。
Stein kernel-based Integrated Information Coordination Module (IICM) は理論上、マルチモーダル特徴とIDストリーム間の分散一貫性を保証する。
マルチモーダル特徴を文脈的関連性に基づいて適応的にフィルタリング・結合するクロスモーダル・エキスパート・ルーティング機構。
論文 参考訳(メタデータ) (2025-07-07T04:09:45Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - Multi-Agent Collaboration via Evolving Orchestration [61.93162413517026]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMをベースとしたマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し、中央オーケストレータがタスク状態の進化に応じてエージェントを動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - SpecRouter: Adaptive Routing for Multi-Level Speculative Decoding in Large Language Models [21.933379266533098]
大規模言語モデル(LLM)は、推論品質と計算コストの間に重要なトレードオフをもたらす。
既存のサービス戦略では、固定されたモデルスケールや静的な2段階の投機的デコードを用いることが多い。
本稿では,LLM推論を適応的ルーティング問題として再定義する新しいフレームワークであるsystemnameを紹介する。
論文 参考訳(メタデータ) (2025-05-12T15:46:28Z) - Benchmarking LLMs' Swarm intelligence [50.544186914115045]
大規模言語モデル(LLM)は複雑な推論の可能性を秘めているが、マルチエージェントシステム(MAS)における創発的協調の能力はほとんど探索されていない。
分散エージェントとして機能するLDMのタスクを体系的に評価する新しいベンチマークであるSwarmBenchを紹介する。
本稿では,協調効率の指標を提案し,創発的グループダイナミクスを解析する。
論文 参考訳(メタデータ) (2025-05-07T12:32:01Z) - Intelligent Orchestration of Distributed Large Foundation Model Inference at the Edge [46.1232919707345]
Large Foundation Models (LFMs)は、次世代のEdge AIアプリケーションの新機能をアンロックすることを約束する。
現在の分割推論戦略では、ノード間でLPM層を分割するが、変動するワークロードに適応するようには設計されていない。
本稿では, LFM層を実行時可変変数に配置し, 分割する, 適応型分割推論オーケストレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T15:35:56Z) - Symphony: Optimized DNN Model Serving using Deferred Batch Scheduling [8.953658739636868]
Symphonyは、遅延バッチスケジューリングを探索し、システムの効率とスループットを最適化するモデルサービスシステムである。
スケジュール可能なウィンドウでリクエストをディスパッチおよび実行するために、アクセラレータ間でスケーラブルで低レイテンシできめ細かい調整スキームを実装している。
Symphonyは毎秒数百万のリクエストをスケジュールし、数千のGPUを調整すると同時に、堅牢な自動スケーリングを可能にします。
論文 参考訳(メタデータ) (2023-08-14T21:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。