論文の概要: COMBO: Compositional World Models for Embodied Multi-Agent Cooperation
- arxiv url: http://arxiv.org/abs/2404.10775v1
- Date: Tue, 16 Apr 2024 17:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 15:45:38.684125
- Title: COMBO: Compositional World Models for Embodied Multi-Agent Cooperation
- Title(参考訳): COMBO:マルチエージェント協調のための構成世界モデル
- Authors: Hongxin Zhang, Zeyuan Wang, Qiushi Lyu, Zheyuan Zhang, Sunli Chen, Tianmin Shu, Yilun Du, Chuang Gan,
- Abstract要約: 分散エージェントは、世界の部分的な自我中心的な見解にのみ、協力しなくてはならない。
我々は、部分的な自我中心の観測から世界全体の状態を推定するために生成モデルを訓練する。
複数のエージェントの自然な構成可能な共同動作を分解することにより、マルチエージェント協調のための構成的世界モデルを学ぶ。
- 参考スコア(独自算出の注目度): 64.27636858152522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the problem of embodied multi-agent cooperation, where decentralized agents must cooperate given only partial egocentric views of the world. To effectively plan in this setting, in contrast to learning world dynamics in a single-agent scenario, we must simulate world dynamics conditioned on an arbitrary number of agents' actions given only partial egocentric visual observations of the world. To address this issue of partial observability, we first train generative models to estimate the overall world state given partial egocentric observations. To enable accurate simulation of multiple sets of actions on this world state, we then propose to learn a compositional world model for multi-agent cooperation by factorizing the naturally composable joint actions of multiple agents and compositionally generating the video. By leveraging this compositional world model, in combination with Vision Language Models to infer the actions of other agents, we can use a tree search procedure to integrate these modules and facilitate online cooperative planning. To evaluate the efficacy of our methods, we create two challenging embodied multi-agent long-horizon cooperation tasks using the ThreeDWorld simulator and conduct experiments with 2-4 agents. The results show our compositional world model is effective and the framework enables the embodied agents to cooperate efficiently with different agents across various tasks and an arbitrary number of agents, showing the promising future of our proposed framework. More videos can be found at https://vis-www.cs.umass.edu/combo/.
- Abstract(参考訳): 本稿では,非中央集権型エージェントが世界の部分的な自我中心的な視点のみを前提として協力しなくてはならない,多エージェント連携の具体的課題について考察する。
この設定を効果的に計画するには、単一エージェントシナリオにおける世界ダイナミクスの学習とは対照的に、世界の部分的な自我中心的な視覚的観察のみを与えられた任意の数のエージェントの行動に条件付けられた世界ダイナミクスをシミュレートする必要がある。
この部分観測可能性の問題に対処するため,我々はまず生成モデルを訓練し,部分的な自我中心の観測から世界全体の状態を推定する。
そこで本研究では,複数エージェントの自然な構成可能な関節動作を分解し,合成的に映像を生成することで,複数エージェント協調のための構成的世界モデルを構築することを提案する。
この構成的世界モデルを利用して、視覚言語モデルと組み合わせて、他のエージェントの行動を推測することで、これらのモジュールの統合とオンライン協調計画の容易化を図ることができる。
提案手法の有効性を評価するため,3DWorldシミュレータを用いて,2-4エージェントを用いた実験を行った。
その結果、我々の構成的世界モデルの有効性が示され、そのフレームワークは、様々なタスクと任意の数のエージェントをまたがって、様々なエージェントと効率的に協力し、提案するフレームワークの将来性を示す。
さらなるビデオはhttps://vis-www.cs.umass.edu/combo/.com/で見ることができる。
関連論文リスト
- Enabling Multi-Robot Collaboration from Single-Human Guidance [5.016558275355615]
本研究では,人間一人の専門知識を活用することで,マルチエージェントシステムにおける協調行動の効率的な学習方法を提案する。
本研究では,人間の操作者が短時間に制御エージェントを動的に切り替えることによって,効果的に協調学習ができることを示す。
実験の結果,本手法は,人的指導を40分で最大58$%向上させることができた。
論文 参考訳(メタデータ) (2024-09-30T00:02:56Z) - Synergistic Simulations: Multi-Agent Problem Solving with Large Language Models [36.571597246832326]
大規模言語モデル(LLM)は,マルチエージェントシステムの開発を容易にする能力の実証がますます進んでいる。
本稿では,エージェントとワールドインタラクションをひとつのシミュレーションに統合し,複数のエージェントが協調して問題解決を行う方法を提案する。
我々は,2人のルームメイトとエージェントが協調してプログラミング作業を行う物理スタジオアパートの2つのシミュレーションを実装した。
論文 参考訳(メタデータ) (2024-09-14T21:53:35Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Reaching Consensus in Cooperative Multi-Agent Reinforcement Learning
with Goal Imagination [16.74629849552254]
本稿では,複数のエージェントを協調するモデルに基づくコンセンサス機構を提案する。
提案したMulti-Adnt Goal Imagination (MAGI) フレームワークは、エージェントがImagined Common goalとコンセンサスに達するためのガイドである。
このような効率的なコンセンサス機構は、すべてのエージェントを協調して有用な将来状態に導くことができることを示す。
論文 参考訳(メタデータ) (2024-03-05T18:07:34Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。