論文の概要: CoBel-World: Harnessing LLM Reasoning to Build a Collaborative Belief World for Optimizing Embodied Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2509.21981v1
- Date: Fri, 26 Sep 2025 07:03:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.257473
- Title: CoBel-World: Harnessing LLM Reasoning to Build a Collaborative Belief World for Optimizing Embodied Multi-Agent Collaboration
- Title(参考訳): CoBel-World:マルチエージェントコラボレーションを最適化するコラボレーション世界を構築するためのLLM推論
- Authors: Zhimin Wang, Shaokang He, Duo Wu, Jinghe Wang, Linjia Kang, Jing Yu, Zhi Wang,
- Abstract要約: 大規模言語モデル(LLM)は、協調的なタスク解決のための有望な自律エージェントとして登場した。
我々は,LLMエージェントを協調的信念の世界に適合させる新しいフレームワークであるCoBel-Worldを提案する。
その結果,CoBel-Worldは通信コストを22~60%削減し,最強のベースラインに比べてタスク完了効率を4~28%向上した。
- 参考スコア(独自算出の注目度): 11.118352340795829
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective real-world multi-agent collaboration requires not only accurate planning but also the ability to reason about collaborators' intents -- a crucial capability for avoiding miscoordination and redundant communication under partial observable environments. Due to their strong planning and reasoning capabilities, large language models (LLMs) have emerged as promising autonomous agents for collaborative task solving. However, existing collaboration frameworks for LLMs overlook their reasoning potential for dynamic intent inference, and thus produce inconsistent plans and redundant communication, reducing collaboration efficiency. To bridge this gap, we propose CoBel-World, a novel framework that equips LLM agents with a collaborative belief world -- an internal representation jointly modeling the physical environment and collaborators' mental states. CoBel-World enables agents to parse open-world task knowledge into structured beliefs via a symbolic belief language, and perform zero-shot Bayesian-style belief updates through LLM reasoning. This allows agents to proactively detect potential miscoordination (e.g., conflicting plans) and communicate adaptively. Evaluated on challenging embodied benchmarks (i.e., TDW-MAT and C-WAH), CoBel-World significantly reduces communication costs by 22-60% and improves task completion efficiency by 4-28% compared to the strongest baseline. Our results show that explicit, intent-aware belief modeling is essential for efficient and human-like collaboration in LLM-based multi-agent systems.
- Abstract(参考訳): 効果的な実世界のマルチエージェントコラボレーションには、正確な計画だけでなく、協力者の意図を推論する能力も必要です。
強力な計画と推論能力のため、大規模言語モデル(LLM)は、協調的なタスク解決のための有望な自律エージェントとして登場した。
しかし、LLMの既存のコラボレーションフレームワークは、動的意図推論の推論の可能性を見落とし、一貫性のない計画と冗長なコミュニケーションを生み出し、コラボレーション効率を低下させる。
このギャップを埋めるために、我々は、LLMエージェントを協調的信念の世界に装備する新しいフレームワークであるCoBel-Worldを提案します。
CoBel-Worldは、エージェントがオープンワールドのタスク知識を象徴的信念言語を介して構造化された信念に解析し、LCM推論を通じてゼロショットベイズ的な信念更新を行うことを可能にする。
これにより、エージェントは潜在的不整合(例えば計画の矛盾)を積極的に検出し、適応的に通信することができる。
挑戦的な実施ベンチマーク(TDW-MATとC-WAH)の評価により、CoBel-Worldは通信コストを22~60%削減し、最強のベースラインと比較してタスク完了効率を4~28%改善した。
この結果から,LLMに基づくマルチエージェントシステムにおいて,明示的かつ意図的信念モデリングは効率的かつ人間ライクなコラボレーションに不可欠であることが示唆された。
関連論文リスト
- Can LLM Agents Solve Collaborative Tasks? A Study on Urgency-Aware Planning and Coordination [4.511923587827302]
大規模言語モデル(LLM)は、コミュニケーション、計画、推論において強力な能力を示している。
本研究は,マルチエージェント協調作業におけるLCMの強みと失敗モードに関する新たな知見を提供する。
論文 参考訳(メタデータ) (2025-08-20T11:44:10Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Your Co-Workers Matter: Evaluating Collaborative Capabilities of Language Models in Blocks World [13.005764902339523]
2つのエージェントがそれぞれ独自の目標とスキルを持ち、ターゲット構造を一緒に構築するブロックワールド環境を設計する。
目標を達成するために、彼らは世界で行動し、自然言語でコミュニケーションすることができる。
パートナーの状態をモデル化し、実行エラーを特定し、修正するための中間的推論ステップを含む、チェーンオブ思想のプロンプトを採用しています。
論文 参考訳(メタデータ) (2024-03-30T04:48:38Z) - Embodied LLM Agents Learn to Cooperate in Organized Teams [46.331162216503344]
大規模言語モデル(LLM)は、推論、計画、意思決定のための統合的なツールとして登場した。
本稿では,これらの問題を緩和するために,LSMエージェントにプロンプトベースの組織構造を課す枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-19T06:39:47Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - LLM-Coordination: Evaluating and Analyzing Multi-agent Coordination Abilities in Large Language Models [23.092480882456048]
大きな言語モデル(LLM)は、創発的な常識推論と心の理論(ToM)能力を示している。
本研究では,Pure Coordination Sets の文脈で LLM を解析するための新しいベンチマークである LLM-Coordination Benchmark を紹介する。
論文 参考訳(メタデータ) (2023-10-05T21:18:15Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。