論文の概要: DR. WELL: Dynamic Reasoning and Learning with Symbolic World Model for Embodied LLM-Based Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2511.04646v1
- Date: Thu, 06 Nov 2025 18:37:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.561115
- Title: DR. WELL: Dynamic Reasoning and Learning with Symbolic World Model for Embodied LLM-Based Multi-Agent Collaboration
- Title(参考訳): DR. WELL: LLMに基づくマルチエージェント協調のための記号的世界モデルによる動的推論と学習
- Authors: Narjes Nourzad, Hanqing Yang, Shiyu Chen, Carlee Joe-Wong,
- Abstract要約: DR. WELLは、協調的マルチエージェント計画のための分散型神経シンボルフレームワークである。
エージェントは候補者の役割を提案し、合意と環境制約の下で共同割り当てをコミットする。
各エージェントは、詳細な軌道を明らかにすることなく、独立してその役割の象徴的な計画を生成し実行します。
- 参考スコア(独自算出の注目度): 18.250351934101463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cooperative multi-agent planning requires agents to make joint decisions with partial information and limited communication. Coordination at the trajectory level often fails, as small deviations in timing or movement cascade into conflicts. Symbolic planning mitigates this challenge by raising the level of abstraction and providing a minimal vocabulary of actions that enable synchronization and collective progress. We present DR. WELL, a decentralized neurosymbolic framework for cooperative multi-agent planning. Cooperation unfolds through a two-phase negotiation protocol: agents first propose candidate roles with reasoning and then commit to a joint allocation under consensus and environment constraints. After commitment, each agent independently generates and executes a symbolic plan for its role without revealing detailed trajectories. Plans are grounded in execution outcomes via a shared world model that encodes the current state and is updated as agents act. By reasoning over symbolic plans rather than raw trajectories, DR. WELL avoids brittle step-level alignment and enables higher-level operations that are reusable, synchronizable, and interpretable. Experiments on cooperative block-push tasks show that agents adapt across episodes, with the dynamic world model capturing reusable patterns and improving task completion rates and efficiency. Experiments on cooperative block-push tasks show that our dynamic world model improves task completion and efficiency through negotiation and self-refinement, trading a time overhead for evolving, more efficient collaboration strategies.
- Abstract(参考訳): 協調的マルチエージェント計画では、エージェントは部分的な情報と限られたコミュニケーションで共同決定を行う必要がある。
軌道レベルでの調整はしばしば失敗し、タイミングの小さなずれやカスケードの動きが衝突に繋がる。
シンボリックプランニングは、抽象レベルを高め、同期と集合的な進歩を可能にする最小限の行動語彙を提供することによって、この課題を緩和する。
We present DR. WELL, a decentralized neurosymbolic framework for collaborative multi-agent planning。
エージェントはまず推論を伴う候補の役割を提案し、コンセンサスと環境制約の下で共同割り当てをコミットする。
コミットメントの後、各エージェントは、詳細な軌道を明らかにすることなく、独立してその役割の象徴的な計画を生成し実行します。
計画は、現在の状態をエンコードし、エージェントアクトとして更新される共有ワールドモデルを通じて実行結果に基礎を置いている。
WELLは、生の軌道ではなく象徴的な計画について推論することで、不安定なステップレベルのアライメントを回避し、再利用性、同期性、解釈可能な高レベルな操作を可能にする。
協調的ブロックプッシュタスクの実験は、動的世界モデルが再利用可能なパターンをキャプチャし、タスク完了率と効率を改善することにより、エージェントがエピソードにまたがって適応することを示している。
協調的ブロックプッシュタスクの実験は、我々の動的世界モデルが交渉や自己抑制を通じてタスクの完了と効率を改善し、より効率的な協調戦略を進化させるための時間オーバーヘッドを取引していることを示している。
関連論文リスト
- Learning to Interact in World Latent for Team Coordination [53.51290193631586]
本研究は,多エージェント強化学習(MARL)におけるチーム協調を支援するために,対話型ワールドラテント(IWoL)という新しい表現学習フレームワークを提案する。
コミュニケーションプロトコルを直接モデル化することにより,エージェント間関係とタスク固有の世界情報とを協調的にキャプチャする学習可能な表現空間を構築する。
私たちの表現は、各エージェントの暗黙のラテントとしてだけでなく、コミュニケーションのための明示的なメッセージとしても使用できます。
論文 参考訳(メタデータ) (2025-09-29T22:13:39Z) - CaPo: Cooperative Plan Optimization for Efficient Embodied Multi-Agent Cooperation [98.11670473661587]
CaPoは,1)メタプラン生成,2)プログレッシブなメタプランと実行の2つのフェーズで協調効率を向上する。
3Dworld Multi-Agent TransportとCommunicative Watch-And-Helpタスクの実験結果は、CaPoが最先端技術と比較してタスク完了率と効率をはるかに高めることを示した。
論文 参考訳(メタデータ) (2024-11-07T13:08:04Z) - Towards Collaborative Intelligence: Propagating Intentions and Reasoning for Multi-Agent Coordination with Large Language Models [41.95288786980204]
現在のエージェントフレームワークは、シングルエージェント実行への依存に悩まされ、モジュール間通信が堅牢でないことが多い。
協調的なMARLにおける協調行動を可能にするための協調エージェントとして,大規模言語モデルを訓練するためのフレームワークを提案する。
伝搬ネットワークは、放送意図をチームメイト固有のコミュニケーションメッセージに変換し、指定されたチームメイトと関連する目標を共有する。
論文 参考訳(メタデータ) (2024-07-17T13:14:00Z) - Hierarchical Consensus-Based Multi-Agent Reinforcement Learning for Multi-Robot Cooperation Tasks [17.914928652949314]
階層型合意に基づくマルチエージェント強化学習(HC-MARL)フレームワークを導入し,その限界に対処する。
HC-MARLは、エージェント間のグローバルコンセンサスを促進するために対照的な学習を採用し、直接のコミュニケーションなしに協調行動を可能にする。
様々なタスクの動的な要求を満たすために、コンセンサスを複数の層に分割し、短期的および長期的考慮を包含する。
論文 参考訳(メタデータ) (2024-07-11T03:55:55Z) - A Cordial Sync: Going Beyond Marginal Policies for Multi-Agent Embodied
Tasks [111.34055449929487]
エージェントが協力して家具をリビングルームに移動させるという,新しいタスクFurnMoveを紹介した。
既存のタスクとは異なり、FurnMoveはエージェントが各タイミングで調整する必要がある。
既存の分散化されたアクションサンプリング手順は、表現力のある共同アクションポリシーを許さない。
SynC-policiesとCORDIALを用いて、我々のエージェントはFurnMoveで58%の完成率を達成する。
論文 参考訳(メタデータ) (2020-07-09T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。