論文の概要: ELHPlan: Efficient Long-Horizon Task Planning for Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2509.24230v1
- Date: Mon, 29 Sep 2025 03:15:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.717495
- Title: ELHPlan: Efficient Long-Horizon Task Planning for Multi-Agent Collaboration
- Title(参考訳): ELHPlan:マルチエージェントコラボレーションのための効率的な長期タスクプランニング
- Authors: Shaobin Ling, Yun Wang, Chenyou Fan, Tin Lun Lam, Junjie Hu,
- Abstract要約: 大規模言語モデル(LLM)は、インテリジェントなマルチロボットコラボレーションを可能にするが、基本的なトレードオフに直面している。
本稿では,アクションチェーンを導入した新たなフレームワークであるELHPlanを提案する。
- 参考スコア(独自算出の注目度): 25.45699736192177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) enable intelligent multi-robot collaboration but face fundamental trade-offs: declarative methods lack adaptability in dynamic environments, while iterative methods incur prohibitive computational costs that scale poorly with team size and task complexity. In this paper, we propose ELHPlan, a novel framework that introduces Action Chains--sequences of actions explicitly bound to sub-goal intentions--as the fundamental planning primitive. ELHPlan operates via a cyclical process: 1) constructing intention-bound action sequences, 2) proactively validating for conflicts and feasibility, 3) refining issues through targeted mechanisms, and 4) executing validated actions. This design balances adaptability and efficiency by providing sufficient planning horizons while avoiding expensive full re-planning. We further propose comprehensive efficiency metrics, including token consumption and planning time, to more holistically evaluate multi-agent collaboration. Our experiments on benchmark TDW-MAT and C-WAH demonstrate that ELHPlan achieves comparable task success rates while consuming only 24% of the tokens required by state-of-the-art methods. Our research establishes a new efficiency-effectiveness frontier for LLM-based multi-agent planning systems.
- Abstract(参考訳): 大きな言語モデル(LLM)は、インテリジェントなマルチロボットのコラボレーションを可能にするが、基本的なトレードオフに直面している。
本稿では,アクションチェーンを導入した新しいフレームワークであるELHPlanを提案する。
ELHPlanは環状プロセスを介して動作する。
1)意図に縛られたアクションシーケンスの構築
2 紛争及び実現可能性について積極的に検証すること。
3【対象機構による課題の精錬】
4) 検証された動作の実行。
この設計は、コストのかかる完全な計画変更を回避しつつ、十分な計画水平線を提供することで、適応性と効率のバランスをとる。
さらに、トークン消費や計画時間を含む包括的な効率指標を提案し、マルチエージェントコラボレーションをより全体的に評価する。
TDW-MAT と C-WAH のベンチマーク実験により,ELHPlan は,最先端の手法で要求されるトークンの 24% しか消費せず,同等のタスク成功率を達成することを示した。
本研究は, LLMに基づくマルチエージェント計画システムにおいて, 効率効率の新たなフロンティアを確立するものである。
関連論文リスト
- Learning When to Plan: Efficiently Allocating Test-Time Compute for LLM Agents [35.79575378215309]
強化学習(RL)による推論のための大規模言語モデル(LLM)の訓練は,その問題解決能力を大幅に向上させる。
LLMエージェントの動的計画を形式化する概念的枠組みを導入し、計画にテスト時間計算をいつ割り当てるかを柔軟に決定できるようにする。
Crafter環境での実験は、このアプローチでトレーニングされた動的計画エージェントがよりサンプリング効率が高く、より複雑な目標を一貫して達成していることを示している。
論文 参考訳(メタデータ) (2025-09-03T18:00:13Z) - Efficient LLM Collaboration via Planning [56.081879390960204]
小規模で大規模なモデルでは、プランナーと実行担当者として交代で行動し、タスクを協調的に解決するために、多段階のカスケードでプランを交換する。
私たちはCOPEが大規模プロプライエタリモデルに匹敵するパフォーマンスを実現し,推論APIのコストを大幅に削減できることを実証した。
論文 参考訳(メタデータ) (2025-06-13T08:35:50Z) - HyperTree Planning: Enhancing LLM Reasoning via Hierarchical Thinking [109.09735490692202]
提案するHyperTree Planning(HTP)は,高木構造プランニングアウトラインを構成する新しい推論パラダイムである。
実験ではHTPの有効性を実証し、Gemini-1.5-ProによるTravelPlannerベンチマークで最先端の精度を実現し、o1-previewよりも3.6倍の性能向上を実現した。
論文 参考訳(メタデータ) (2025-05-05T02:38:58Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Planning with Multi-Constraints via Collaborative Language Agents [13.550774629515843]
本稿では,協調型マルチエージェントシステムのためのゼロショット手法であるPMC(Planning with Multi-Constraints)を紹介する。
PMCは、制約で複雑なタスク計画を簡単にし、従属タスクの階層に分解する。
PMCはTravelPlannerで平均42.68%の成功率を記録し、GPT-4 (2.92%) をはるかに上回り、API-BankでReActを13.64%上回った。
論文 参考訳(メタデータ) (2024-05-26T10:33:17Z) - Consolidating Trees of Robotic Plans Generated Using Large Language
Models to Improve Reliability [6.4111574364474215]
LLM(Large Language Models)の固有の確率論的性質は、予測不可能な要素を導入している。
本稿では,多様な現実の要求やシナリオに対して,適切なロボットタスク計画を作成することを目的とした,革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-15T18:01:59Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [131.063805299796]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。