論文の概要: Enhancing Multi-Agent Coordination through Common Operating Picture
Integration
- arxiv url: http://arxiv.org/abs/2311.04740v1
- Date: Wed, 8 Nov 2023 15:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 15:36:20.548492
- Title: Enhancing Multi-Agent Coordination through Common Operating Picture
Integration
- Title(参考訳): 共通操作画像統合によるマルチエージェント協調の強化
- Authors: Peihong Yu, Bhoram Lee, Aswin Raghavan, Supun Samarasekara, Pratap
Tokekar, James Zachary Hare
- Abstract要約: 各エージェントは、その観察、行動、メッセージの履歴を共通のオペレーティング・ピクチャー(COP)に組み込むことができる。
本研究は, COP統合の有効性を実証し, 従来のマルチエージェント強化学習(MARL)法と比較して, COPをベースとしたトレーニングが, アウト・オブ・ディストリビューション初期状態に直面した場合に, 堅牢なポリシーをもたらすことを示す。
- 参考スコア(独自算出の注目度): 14.927199437011044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-agent systems, agents possess only local observations of the
environment. Communication between teammates becomes crucial for enhancing
coordination. Past research has primarily focused on encoding local information
into embedding messages which are unintelligible to humans. We find that using
these messages in agent's policy learning leads to brittle policies when tested
on out-of-distribution initial states. We present an approach to multi-agent
coordination, where each agent is equipped with the capability to integrate its
(history of) observations, actions and messages received into a Common
Operating Picture (COP) and disseminate the COP. This process takes into
account the dynamic nature of the environment and the shared mission. We
conducted experiments in the StarCraft2 environment to validate our approach.
Our results demonstrate the efficacy of COP integration, and show that
COP-based training leads to robust policies compared to state-of-the-art
Multi-Agent Reinforcement Learning (MARL) methods when faced with
out-of-distribution initial states.
- Abstract(参考訳): マルチエージェントシステムでは、エージェントは環境の局所的な観察のみを保持する。
チームメート間のコミュニケーションはコーディネーションの強化に不可欠である。
過去の研究は主に、人間には理解できない埋め込みメッセージにローカル情報をエンコードすることに焦点を当ててきた。
エージェントのポリシー学習にこれらのメッセージを使用することで、配布外初期状態でテストした場合、不安定なポリシーが生まれる。
本稿では,マルチエージェントの協調手法を提案する。各エージェントは,その観察,行動,メッセージを共通オペレーティング・ピクチャー(COP)に統合し,COPを広める機能を備えている。
このプロセスは環境の動的な性質と共有ミッションを考慮に入れます。
我々はStarCraft2環境で実験を行い、我々のアプローチを検証する。
本研究では,コプト統合の有効性を示し,コプトベーストレーニングが分散初期状態に直面する場合,最先端のマルチエージェント強化学習(marl)法と比較して強固な方針を導くことを示した。
関連論文リスト
- Data-Driven Distributed Common Operational Picture from Heterogeneous Platforms using Multi-Agent Reinforcement Learning [1.3469274919926262]
無人プラットフォームの統合は、状況認識を高め、軍事作戦における「戦争の霧」を軽減することを約束する。
これらのプラットフォームからの膨大なデータの流入を管理することは、Command and Control (C2)システムにとって大きな課題となる。
本研究では,この課題に対処する新しいマルチエージェント学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-08T16:31:22Z) - DCMAC: Demand-aware Customized Multi-Agent Communication via Upper Bound Training [9.068971933560416]
本稿では,アッパーバウンドトレーニングを用いて理想的なポリシを得る,要求対応のカスタマイズ型マルチエージェント通信プロトコルを提案する。
実験結果から,DCMACは,制約のない,通信制約のないシナリオにおいて,ベースラインアルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2024-09-11T09:23:27Z) - T2MAC: Targeted and Trusted Multi-Agent Communication through Selective
Engagement and Evidence-Driven Integration [15.91335141803629]
我々は、エージェントが選択的なエンゲージメントとエビデンス駆動の統合を学ぶのを助けるために、T2MAC(Targeted and Trusted Multi-Agent Communication)を提案する。
T2MACは、エージェントが個別化されたメッセージを作成し、理想的なコミュニケーションウィンドウをピンポイントし、信頼できるパートナーと対話することを可能にする。
本手法は,様々な課題を伴って,多様な協調型マルチエージェントタスクに対して評価を行う。
論文 参考訳(メタデータ) (2024-01-19T18:00:33Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z) - Depthwise Convolution for Multi-Agent Communication with Enhanced
Mean-Field Approximation [9.854975702211165]
本稿では,MARL(Multi-agent RL)課題に取り組むための,局所的なコミュニケーション学習に基づく新しい手法を提案する。
まず,局所的な関係を効率的に抽出する深層的畳み込み機能を利用する新しい通信プロトコルを設計する。
第2に,エージェント相互作用の規模を減らすために,平均場近似を導入する。
論文 参考訳(メタデータ) (2022-03-06T07:42:43Z) - Inference-Based Deterministic Messaging For Multi-Agent Communication [1.8275108630751844]
行列に基づくシグナリングゲームにおける学習について検討し,分散化手法がサブオプティマティリティポリシに収束できることを示した。
次に、送信者が送信者の観察を推測するのを助ける最良のメッセージを決定的に選択するメッセージポリシーの修正を提案します。
論文 参考訳(メタデータ) (2021-03-03T03:09:22Z) - Exploring Zero-Shot Emergent Communication in Embodied Multi-Agent
Populations [59.608216900601384]
本研究では,3次元環境下で関節を作動させることでコミュニケーションを学ぶエージェントについて検討する。
現実的な仮定、意図の非一様分布、共通知識エネルギーコストにおいて、これらのエージェントは新規パートナーに一般化するプロトコルを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-10-29T19:23:10Z) - Multi-Agent Interactions Modeling with Correlated Policies [53.38338964628494]
本稿では,マルチエージェントインタラクションモデリング問題をマルチエージェント模倣学習フレームワークに実装する。
相関ポリシー(CoDAIL)を用いた分散型適応模倣学習アルゴリズムの開発
様々な実験により、CoDAILはデモレーターに近い複雑な相互作用をより良く再生できることが示されている。
論文 参考訳(メタデータ) (2020-01-04T17:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。