論文の概要: CausalPlan: Empowering Efficient LLM Multi-Agent Collaboration Through Causality-Driven Planning
- arxiv url: http://arxiv.org/abs/2508.13721v1
- Date: Tue, 19 Aug 2025 10:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.893862
- Title: CausalPlan: Empowering Efficient LLM Multi-Agent Collaboration Through Causality-Driven Planning
- Title(参考訳): CausalPlan: 因果計画を通じて効率的なLLMマルチエージェントコラボレーションを実現する
- Authors: Minh Hoang Nguyen, Van Dai Do, Dung Nguyen, Thin Nguyen, Hung Le,
- Abstract要約: CausalPlanは、明示的な構造因果推論を大規模言語モデル(LLM)計画プロセスに統合するフレームワークである。
我々は,5つのマルチエージェント調整タスクと4つのLLMの異なるサイズで,Overcooked-AIベンチマークでCausalPlanを評価した。
その結果、CausalPlanは不適切なアクションを一貫して削減し、AI-AIとヒューマン-AI設定の両方でのコラボレーションを改善していることがわかった。
- 参考スコア(独自算出の注目度): 25.322580535468013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) agents-especially smaller, open-source models-often produce causally invalid or incoherent actions in collaborative tasks due to their reliance on surface-level correlations rather than grounded causal reasoning. This limitation undermines their performance in terms of coordination and planning in dynamic environments. We address this challenge with CausalPlan, a two-phase framework that integrates explicit structural causal reasoning into the LLM planning process. At the core of CausalPlan is the Structural Causal Action (SCA) model, which learns a causal graph from agent trajectories to capture how prior actions and current environment states influence future decisions. This structure is then used to guide action selection by assigning causal scores to LLM-generated proposals, reweighting them accordingly, or falling back to causally grounded alternatives when needed. By embedding this causal knowledge directly into the decision loop, CausalPlan constrains planning to intervention-consistent behaviours without requiring fine-tuning of the LLM itself. We evaluate CausalPlan on the Overcooked-AI benchmark across five multi-agent coordination tasks and four LLMs of varying sizes: Gemma-7B, Llama-8B, Qwen-14B, and Llama-70B. Experimental results show that CausalPlan consistently reduces invalid actions and improves collaboration in both AI-AI and human-AI settings, outperforming strong reinforcement learning baselines. Our findings highlight the value of causality-driven planning for deploying efficient, interpretable, and generalisable multi-agent LLM systems.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェント(特に小さく、オープンソースモデル)は、因果推論ではなく表面レベルの相関に依存するため、しばしば協調作業において因果的無効または不整合な行動を引き起こす。
この制限は、動的環境における調整と計画の点でパフォーマンスを損なう。
LLM計画プロセスに明示的な構造因果推論を統合する2相フレームワークであるCausalPlanでこの問題に対処する。
CausalPlanのコアとなるのはStructure Causal Action(SCA)モデルである。これはエージェントの軌跡から因果グラフを学習し、以前のアクションと現在の環境状態が将来の決定にどのように影響するかをキャプチャする。
この構造は、LLM生成された提案に因果スコアを割り当てたり、それに応じて重み付けしたり、必要に応じて因果的に根拠付けられた代替案にフォールバックすることで、行動選択を導くのに使用される。
この因果的知識を直接決定ループに埋め込むことによって、CausalPlan氏は、LLM自体の微調整を必要とせずに、介入一貫性のある動作を計画することを制約している。
我々は,5つのマルチエージェント協調タスクと4つのLLM(Gemma-7B,Llama-8B,Qwen-14B,Llama-70B)にわたるOvercooked-AIベンチマークでCausalPlanを評価した。
実験結果から,CausalPlanは不適切な動作を一貫して低減し,AI-AI設定と人間-AI設定のコラボレーションを改善し,強力な強化学習ベースラインを上回っていることがわかった。
本研究は, 効率よく, 解釈可能, 汎用的なマルチエージェントLCMシステムを構築する上で, 因果性駆動型プランニングの価値を強調した。
関連論文リスト
- PLAN-TUNING: Post-Training Language Models to Learn Step-by-Step Planning for Complex Problem Solving [66.42260489147617]
大規模言語モデルから合成タスク分解を蒸留するフレームワークであるPLAN-TUNINGを紹介する。
複雑な推論を改善するために、教師付きおよび強化学習の目的を通したプランチューン細管モデル。
本分析は,計画軌道が複雑な推論能力をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-07-10T07:30:44Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - Deliberate Reasoning in Language Models as Structure-Aware Planning with an Accurate World Model [14.480267340831542]
高精度世界モデル(SWAP)による構造認識計画
SWAPは構造化知識表現と学習計画を統合する。
SWAPは,数理推論,論理推論,コーディングタスクなど,多種多様な推論集約型ベンチマークで評価される。
論文 参考訳(メタデータ) (2024-10-04T04:23:36Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Tree-Planner: Efficient Close-loop Task Planning with Large Language Models [63.06270302774049]
Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。