論文の概要: Bridging the Capability Gap: Joint Alignment Tuning for Harmonizing LLM-based Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2509.09629v1
- Date: Thu, 11 Sep 2025 17:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.488356
- Title: Bridging the Capability Gap: Joint Alignment Tuning for Harmonizing LLM-based Multi-Agent Systems
- Title(参考訳): 機能ギャップのブリッジ:LLMベースのマルチエージェントシステムのための関節アライメントチューニング
- Authors: Minghang Zhu, Zhengliang Shi, Zhiwei Xu, Shiguang Wu, Lingjie Wang, Pengjie Ren, Zhaochun Ren, Zhumin Chen,
- Abstract要約: マルチエージェントシステムは、特殊エージェント間の責任を分割することで複雑なタスクを解決する。
既存のほとんどの手法は、通常、これらのエージェントを独立に微調整し、調整が不十分な能力のギャップを生じさせる。
エージェント協調を反復的アライメントにより改善する多エージェント共同調整フレームワークMOATを提案する。
- 参考スコア(独自算出の注目度): 43.960406518628865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancement of large language models (LLMs) has enabled the construction of multi-agent systems to solve complex tasks by dividing responsibilities among specialized agents, such as a planning agent for subgoal generation and a grounding agent for executing tool-use actions. Most existing methods typically fine-tune these agents independently, leading to capability gaps among them with poor coordination. To address this, we propose MOAT, a Multi-Agent Joint Alignment Tuning framework that improves agents collaboration through iterative alignment. MOAT alternates between two key stages: (1) Planning Agent Alignment, which optimizes the planning agent to generate subgoal sequences that better guide the grounding agent; and (2) Grounding Agent Improving, which fine-tunes the grounding agent using diverse subgoal-action pairs generated by the agent itself to enhance its generalization capablity. Theoretical analysis proves that MOAT ensures a non-decreasing and progressively convergent training process. Experiments across six benchmarks demonstrate that MOAT outperforms state-of-the-art baselines, achieving average improvements of 3.1% on held-in tasks and 4.4% on held-out tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)の進歩により、サブゴール生成のための計画エージェントやツールユースアクションを実行する接地エージェントなど、特殊なエージェント間で責任を分けて複雑なタスクを解くマルチエージェントシステムの構築が可能になった。
既存のほとんどの手法は、通常、これらのエージェントを独立に微調整し、調整が不十分な能力のギャップを生じさせる。
そこで本研究では,エージェントの協調を反復的アライメントにより改善するマルチエージェント統合アライメントチューニングフレームワークMOATを提案する。
MOATは,(1) プランニングエージェントを最適化して接地エージェントを誘導するサブゴール配列を生成する計画エージェントアライメント,(2) 接地エージェントの改良,(2) エージェント自体が生成する多様なサブゴールアクションペアを用いて接地エージェントを微調整し,その一般化能力を高める。
理論的分析は、MOATが非減少的で漸進的に収束したトレーニングプロセスを保証することを証明している。
6つのベンチマークの実験では、MOATは最先端のベースラインより優れており、ホールドインタスクでは3.1%、ホールドアウトタスクでは4.4%の平均的な改善が達成されている。
関連論文リスト
- Parallelism Meets Adaptiveness: Scalable Documents Understanding in Multi-Agent LLM Systems [0.8437187555622164]
大規模言語モデル(LLM)エージェントは、協調的なタスク補完の約束が増していることを示している。
既存のマルチエージェントフレームワークは、静的で固定されたロールと限定的なエージェント間通信に依存していることが多い。
本稿では,3つのコア機構による適応性を実現するための協調フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-22T22:42:51Z) - JoyAgents-R1: Joint Evolution Dynamics for Versatile Multi-LLM Agents with Reinforcement Learning [6.81021875668872]
ヘテロジニアス多エージェントの協調訓練にグループ相対ポリシー最適化を適用したJoyAgents-R1を提案する。
JoyAgents-R1は、より小さなオープンソースモデルで構築されたより大きなLLMに匹敵する性能を実現していることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:59:31Z) - AgentOrchestra: A Hierarchical Multi-Agent Framework for General-Purpose Task Solving [28.87376403573416]
本稿では,汎用タスク解決のための階層型マルチエージェントフレームワークであるAgentOrchestraを紹介する。
複雑な目的を分解し、サブタスクを専門エージェントのチームに委譲する中央計画エージェントが特徴である。
LLMをベースとしたエージェントシステムを評価するために,このフレームワークを3つの広く使用されているベンチマークで評価する。
論文 参考訳(メタデータ) (2025-06-14T13:45:37Z) - MorphAgent: Empowering Agents through Self-Evolving Profiles and Decentralized Collaboration [11.01813164951313]
本稿では,新しい自律型・自己組織化型・適応型多エージェントシステムであるMorphAgentを紹介する。
このアプローチでは,3つの主要な指標を通じて最適化された自己進化エージェントプロファイルを採用し,エージェントが個々の専門知識を磨き直す。
実験の結果,MorphAgentはタスク性能や要求の変化に対する適応性という点で,既存のフレームワークよりも優れていた。
論文 参考訳(メタデータ) (2024-10-19T09:10:49Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [112.04307762405669]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - HAVEN: Hierarchical Cooperative Multi-Agent Reinforcement Learning with
Dual Coordination Mechanism [17.993973801986677]
多エージェント強化学習はしばしば、多数のエージェントによって引き起こされる指数関数的に大きな作用空間に悩まされる。
完全協調型マルチエージェント問題に対する階層的強化学習に基づく新しい値分解フレームワークHAVENを提案する。
論文 参考訳(メタデータ) (2021-10-14T10:43:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。