論文の概要: AgentArk: Distilling Multi-Agent Intelligence into a Single LLM Agent
- arxiv url: http://arxiv.org/abs/2602.03955v1
- Date: Tue, 03 Feb 2026 19:18:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.246293
- Title: AgentArk: Distilling Multi-Agent Intelligence into a Single LLM Agent
- Title(参考訳): エージェントArk:マルチエージェントインテリジェンスを1つのLLMエージェントに拡張
- Authors: Yinyi Luo, Yiqiao Jin, Weichen Yu, Mengqi Zhang, Srijan Kumar, Xiaoxiao Li, Weijie Xu, Xin Chen, Jindong Wang,
- Abstract要約: AgentArkは、マルチエージェントダイナミクスを単一のモデルの重みに蒸留する新しいフレームワークである。
各種モデル,タスク,スケーリング,シナリオの3つの階層的蒸留戦略について検討する。
シミュレーションからトレーニングへ計算の負担をシフトさせることで、蒸留されたモデルは、複数のエージェントの強い推論と自己補正性能を示しながら、一つのエージェントの効率を保ちます。
- 参考スコア(独自算出の注目度): 57.10083973844841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While large language model (LLM) multi-agent systems achieve superior reasoning performance through iterative debate, practical deployment is limited by their high computational cost and error propagation. This paper proposes AgentArk, a novel framework to distill multi-agent dynamics into the weights of a single model, effectively transforming explicit test-time interactions into implicit model capabilities. This equips a single agent with the intelligence of multi-agent systems while remaining computationally efficient. Specifically, we investigate three hierarchical distillation strategies across various models, tasks, scaling, and scenarios: reasoning-enhanced fine-tuning; trajectory-based augmentation; and process-aware distillation. By shifting the burden of computation from inference to training, the distilled models preserve the efficiency of one agent while exhibiting strong reasoning and self-correction performance of multiple agents. They further demonstrate enhanced robustness and generalization across diverse reasoning tasks. We hope this work can shed light on future research on efficient and robust multi-agent development. Our code is at https://github.com/AIFrontierLab/AgentArk.
- Abstract(参考訳): 大規模言語モデル(LLM)のマルチエージェントシステムは反復的議論を通じて優れた推論性能を達成するが、実際の展開は高い計算コストとエラーの伝播によって制限される。
本稿では,マルチエージェントダイナミクスを単一モデルの重みに蒸留する新しいフレームワークであるAgenArkを提案し,明示的なテスト時間相互作用を暗黙的なモデル機能に効果的に変換する。
これは計算効率を保ちながら、単一のエージェントにマルチエージェントシステムのインテリジェンスを装備する。
具体的には,様々なモデル,タスク,スケーリング,シナリオにまたがる3つの階層的蒸留戦略について検討する。
シミュレーションからトレーニングへ計算の負担をシフトさせることで, 蒸留モデルでは, 複数のエージェントの強い推論と自己補正性能を示しながら, 一つのエージェントの効率を保った。
さらに、様々な推論タスクにまたがる堅牢性と一般化の強化を示す。
この研究が、効率的で堅牢なマルチエージェント開発に関する将来の研究に光を当てることを願っている。
私たちのコードはhttps://github.com/AIFrontierLab/AgentArkにあります。
関連論文リスト
- OPTAGENT: Optimizing Multi-Agent LLM Interactions Through Verbal Reinforcement Learning for Enhanced Reasoning [14.105640933123325]
大規模言語モデル(LLM)は、数学的および科学的タスクにおいて顕著な推論能力を示している。
複雑な推論を強化するため、LLMエージェントの集合的知性を活用するためにマルチエージェントシステムが提案されている。
複数エージェントの協調構造を動的に構築・洗練する多エージェント言語強化学習アルゴリズムである$ours$を提案する。
論文 参考訳(メタデータ) (2025-10-20T19:07:51Z) - Chain-of-Agents: End-to-End Agent Foundation Models via Multi-Agent Distillation and Agentic RL [41.847359443133776]
CoA(Chain-of-Agents)は、大規模言語モデル(LLM)推論の新しいパラダイムであり、ネイティブなエンドツーエンドの複雑な問題解決を可能にする。
我々は, エージェント制御微調整のための多エージェント蒸留フレームワークを導入し, 最先端のマルチエージェントシステムをチェーン・オブ・エージェント・トラジェクトリに蒸留する。
次に、検証可能なエージェントタスクに対するエージェント強化学習を用いて、チェーン・オブ・エージェントの問題解決におけるモデルの能力をさらに向上する。
論文 参考訳(メタデータ) (2025-08-06T17:01:02Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
MADiffは拡散型マルチエージェント学習フレームワークである。
分散ポリシと集中型コントローラの両方として機能する。
実験の結果,MADiffは様々なマルチエージェント学習タスクにおいて,ベースラインアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。