論文の概要: Cross-Task Experiential Learning on LLM-based Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2505.23187v1
- Date: Thu, 29 May 2025 07:24:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.739008
- Title: Cross-Task Experiential Learning on LLM-based Multi-Agent Collaboration
- Title(参考訳): LLMに基づくマルチエージェントコラボレーションにおけるクロスタスク体験学習
- Authors: Yilong Li, Chen Qian, Yu Xia, Ruijie Shi, Yufan Dang, Zihao Xie, Ziming You, Weize Chen, Cheng Yang, Weichuan Liu, Ye Tian, Xuantang Xiong, Lei Han, Zhiyuan Liu, Maosong Sun,
- Abstract要約: マルチエージェント・クロスタスク体験学習(MAEL)は,LSM駆動型エージェントに明示的なクロスタスク学習と経験蓄積を付与する新しいフレームワークである。
経験的学習フェーズでは、タスク解決ワークフローの各ステップの品質を定量化し、その結果の報酬を記憶する。
推論中、エージェントは、各推論ステップの有効性を高めるために、いくつかの例として、高頻度のタスク関連体験を検索する。
- 参考スコア(独自算出の注目度): 63.90193684394165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model-based multi-agent systems (MAS) have shown remarkable progress in solving complex tasks through collaborative reasoning and inter-agent critique. However, existing approaches typically treat each task in isolation, resulting in redundant computations and limited generalization across structurally similar tasks. To address this, we introduce multi-agent cross-task experiential learning (MAEL), a novel framework that endows LLM-driven agents with explicit cross-task learning and experience accumulation. We model the task-solving workflow on a graph-structured multi-agent collaboration network, where agents propagate information and coordinate via explicit connectivity. During the experiential learning phase, we quantify the quality for each step in the task-solving workflow and store the resulting rewards along with the corresponding inputs and outputs into each agent's individual experience pool. During inference, agents retrieve high-reward, task-relevant experiences as few-shot examples to enhance the effectiveness of each reasoning step, thereby enabling more accurate and efficient multi-agent collaboration. Experimental results on diverse datasets demonstrate that MAEL empowers agents to learn from prior task experiences effectively-achieving faster convergence and producing higher-quality solutions on current tasks.
- Abstract(参考訳): 大規模言語モデルに基づくマルチエージェントシステム(MAS)は、協調推論とエージェント間の批判を通じて複雑なタスクの解決において顕著な進歩を見せている。
しかし、既存のアプローチは、通常、各タスクを分離して扱うため、冗長な計算や構造的に類似したタスクの一般化が制限される。
この問題を解決するために,マルチエージェント・クロスタスク体験学習(MAEL)を導入する。
エージェントが明示的な接続を通じて情報やコーディネートを伝達するグラフ構造化マルチエージェント協調ネットワーク上でタスク解決ワークフローをモデル化する。
実験学習の段階では、タスク解決ワークフローの各ステップの質を定量化し、対応するインプットと共に結果の報酬を格納し、各エージェントの個別体験プールに出力する。
推論中、エージェントは、各推論ステップの有効性を高め、より正確で効率的なマルチエージェント協調を可能にするために、少数例として、高度なタスク関連体験を検索する。
多様なデータセットに対する実験結果から、MAELはエージェントに対して、以前のタスク経験から学習し、より高速な収束を効果的に達成し、現在のタスク上で高品質なソリューションを創出できることが示されている。
関連論文リスト
- Self-Resource Allocation in Multi-Agent LLM Systems [17.125470138044978]
本稿では,LLMがコスト,効率,性能などの要因を考慮して,複数のエージェント間で効率的に計算タスクを割り当てる方法について検討する。
実験により, LLM は資源割り当てタスクにおいて高い妥当性と精度が得られることを示した。
その結果,コンカレントアクションの処理におけるオーケストレータ手法よりも効率が向上し,エージェントの利用効率が向上することがわかった。
論文 参考訳(メタデータ) (2025-04-02T18:15:41Z) - Learning Generalizable Skills from Offline Multi-Task Data for Multi-Agent Cooperation [16.107745320103444]
HiSSD(Hierarchical and Separate Skill Discovery)は、スキル学習を通じて、一般化可能なオフラインマルチタスクMARLのための新しいアプローチである。
HiSSDは、共通性とタスク固有のスキルを共同で学習する階層的なフレームワークを活用している。
タスク固有のスキルは、各タスクの先行を表現し、タスク誘導されたきめ細かいアクション実行を達成する。
論文 参考訳(メタデータ) (2025-03-27T06:35:59Z) - Guiding Multi-agent Multi-task Reinforcement Learning by a Hierarchical Framework with Logical Reward Shaping [16.5526277899717]
本研究の目的は,論理報酬形成を伴う多エージェント協調アルゴリズムを設計することである。
Minecraftのような環境下で様々な種類のタスクで実験が行われてきた。
論文 参考訳(メタデータ) (2024-11-02T09:03:23Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - E-MAPP: Efficient Multi-Agent Reinforcement Learning with Parallel
Program Guidance [20.03014783858498]
並列プログラムガイダンスを用いた効率的なマルチエージェント強化学習(E-MAPP)を提案する。
E-MAPPは並列プログラムを活用する新しいフレームワークで、複数のエージェントを誘導し、10ドル以上の計画を必要とする目標を効率的に達成する。
その結果,E-MAPPは完成率,時間効率,ゼロショット一般化能力において,大きなマージンで優れたベースラインを達成できることが示唆された。
論文 参考訳(メタデータ) (2022-12-05T07:02:05Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。