論文の概要: ProST: Progressive Sub-task Training for Pareto-Optimal Multi-agent Systems Using Small Language Models
- arxiv url: http://arxiv.org/abs/2509.04508v1
- Date: Tue, 02 Sep 2025 18:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.3465
- Title: ProST: Progressive Sub-task Training for Pareto-Optimal Multi-agent Systems Using Small Language Models
- Title(参考訳): ProST:小言語モデルを用いたパレート最適マルチエージェントシステムのプログレッシブサブタスクトレーニング
- Authors: Biddut Sarker Bijoy, Mohammad Saqib Hasan, Pegah Alipoormolabashi, Avirup Sil, Aruna Balasubramanian, Niranjan Balasubramanian,
- Abstract要約: AppWorld環境における複雑な問題に対して,シングルエージェントとマルチエージェントシステムをインスタンス化する。
より小さな言語モデル(SLM)における長期学習の困難さは,その性能を制限していることがわかった。
われわれは,各訓練エポックに段階的に新しいサブタスクを導入する,単純なプログレッシブ・サブタスク・トレーニング戦略を導入する。
- 参考スコア(独自算出の注目度): 17.182616178550795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent systems with smaller language models (SLMs) present a viable alternative to single agent systems powered by large language models (LLMs) for addressing complex problems. In this work, we study how these alternatives compare in terms of both effectiveness and efficiency. To study this trade-off, we instantiate single and multi-agent systems for the complex problems in the AppWorld environment using different sized language models. We find that difficulties with long-trajectory learning in smaller language models (SLMs) limit their performance. Even when trained for specialized roles, SLMs fail to learn all subtasks effectively. To address this issue, we introduce a simple progressive sub-task training strategy, which introduces new sub-tasks progressively in each training epoch. We find that this novel strategy, analogous to instance level curriculum learning, consistently improves the effectiveness of multi-agents at all configurations. Our Pareto analysis shows that fine-tuned multi-agent systems yield better effectiveness-efficiency trade-offs. Additional ablations and analyses shows the importance of our progressive training strategy and its ability to reduce subtask error rates.
- Abstract(参考訳): より小さな言語モデル (SLM) を持つマルチエージェントシステムは、複雑な問題に対処するための大規模言語モデル (LLM) を利用した単一エージェントシステムの代替となる。
本研究では,これらの代替案について,有効性と効率の両面から比較する。
このトレードオフを研究するために,異なるサイズの言語モデルを用いて,AppWorld環境の複雑な問題に対して,単一エージェントとマルチエージェントシステムをインスタンス化する。
より小さな言語モデル(SLM)における長期学習の困難さは,その性能を制限していることがわかった。
特殊任務の訓練を受けたとしても、SLMはすべてのサブタスクを効果的に学習することができない。
この問題に対処するために,我々は,各トレーニングエポックに段階的に新しいサブタスクを導入する,単純なプログレッシブ・サブタスク・トレーニング戦略を導入する。
インスタンスレベルのカリキュラム学習に類似したこの新しい戦略は、すべての構成におけるマルチエージェントの有効性を一貫して改善する。
私たちのPareto分析は、微調整されたマルチエージェントシステムにより、効率効率の良いトレードオフが得られることを示している。
さらなる改善と分析は、我々の進歩的トレーニング戦略の重要性と、サブタスクエラー率を減らす能力を示している。
関連論文リスト
- PUMA: Layer-Pruned Language Model for Efficient Unified Multimodal Retrieval with Modality-Adaptive Learning [54.73049408950049]
モーダリティ適応型学習を伴う効率的な統一マルチモーダル検索のための階層型言語モデルを提案する。
本手法は,構造的,学習的両面からの統合的マルチモーダル検索を改善する。
論文 参考訳(メタデータ) (2025-07-10T16:47:25Z) - Bigger, Regularized, Categorical: High-Capacity Value Functions are Efficient Multi-Task Learners [60.75160178669076]
オンライン強化学習におけるタスク干渉の問題に対して,クロスエントロピーを用いて訓練し,学習可能なタスク埋め込みを条件とした高容量値モデルの使用が課題であることを示す。
280以上のユニークなタスクを持つ7つのマルチタスクベンチマークで、高い自由度ヒューマノイド制御と離散視覚ベースのRLにまたがるアプローチを検証した。
論文 参考訳(メタデータ) (2025-05-29T06:41:45Z) - Multiple Weaks Win Single Strong: Large Language Models Ensemble Weak Reinforcement Learning Agents into a Supreme One [28.264011412168347]
モデルアンサンブルは強化学習(RL)において有効なエージェントの訓練に有用である。
LLM-Ensは,タスク固有の意味理解を用いてRLモデルのアンサンブルを強化する手法である。
論文 参考訳(メタデータ) (2025-05-21T09:35:43Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [66.9481561915524]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - MALMM: Multi-Agent Large Language Models for Zero-Shot Robotics Manipulation [62.854649499866774]
大規模言語モデル(LLM)は、ロボティクスの操作やナビゲーションなど、さまざまな領域にまたがる優れた計画能力を示している。
特殊なLLMエージェント間で高レベル計画および低レベル制御コード生成を分散する新しいマルチエージェントLLMフレームワークを提案する。
長軸タスクを含む9つのRLBenchタスクに対するアプローチを評価し、ゼロショット環境でロボット操作を解く能力を実証した。
論文 参考訳(メタデータ) (2024-11-26T17:53:44Z) - CMAT: A Multi-Agent Collaboration Tuning Framework for Enhancing Small Language Models [8.793510432881803]
厳密にキュレートされた高品質データセットに基づいてトレーニングされたTinyAgentモデルを紹介する。
また,言語エージェントの能力向上を目的とした革新的システムであるCMAT(Collaborative Multi-Agent Tuning)フレームワークを提案する。
本研究では,マルチエージェントシステムと環境フィードバック機構を統合した新しいコミュニケーションエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T06:07:35Z) - MAMBPO: Sample-efficient multi-robot reinforcement learning using
learned world models [4.84279798426797]
マルチロボットシステムは、少数の試験で行動を学ぶ強化学習(RL)アルゴリズムの恩恵を受けることができます。
マルチエージェントモデルベースポリシー最適化(MAMBPO)という新しいマルチエージェントモデルベースRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-05T13:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。