論文の概要: AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2212.10064v1
- Date: Tue, 20 Dec 2022 08:13:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 17:32:48.624759
- Title: AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning
- Title(参考訳): AdverSAR:マルチエージェント強化学習による逆探索と救助
- Authors: Aowabin Rahman, Arnab Bhattacharya, Thiagarajan Ramachandran, Sayak
Mukherjee, Himanshu Sharma, Ted Fujimoto, Samrat Chatterjee
- Abstract要約: 本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
- 参考スコア(独自算出の注目度): 4.843554492319537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Search and Rescue (SAR) missions in remote environments often employ
autonomous multi-robot systems that learn, plan, and execute a combination of
local single-robot control actions, group primitives, and global
mission-oriented coordination and collaboration. Often, SAR coordination
strategies are manually designed by human experts who can remotely control the
multi-robot system and enable semi-autonomous operations. However, in remote
environments where connectivity is limited and human intervention is often not
possible, decentralized collaboration strategies are needed for
fully-autonomous operations. Nevertheless, decentralized coordination may be
ineffective in adversarial environments due to sensor noise, actuation faults,
or manipulation of inter-agent communication data. In this paper, we propose an
algorithmic approach based on adversarial multi-agent reinforcement learning
(MARL) that allows robots to efficiently coordinate their strategies in the
presence of adversarial inter-agent communications. In our setup, the objective
of the multi-robot team is to discover targets strategically in an
obstacle-strewn geographical area by minimizing the average time needed to find
the targets. It is assumed that the robots have no prior knowledge of the
target locations, and they can interact with only a subset of neighboring
robots at any time. Based on the centralized training with decentralized
execution (CTDE) paradigm in MARL, we utilize a hierarchical meta-learning
framework to learn dynamic team-coordination modalities and discover emergent
team behavior under complex cooperative-competitive scenarios. The
effectiveness of our approach is demonstrated on a collection of prototype
grid-world environments with different specifications of benign and adversarial
agents, target locations, and agent rewards.
- Abstract(参考訳): リモート環境におけるSAR(Search and Rescue)ミッションでは、ローカルなシングルロボットコントロールアクション、グループプリミティブ、グローバルなミッション指向のコーディネーションとコラボレーションを学習、計画、実行するための自律的なマルチロボットシステムを使用することが多い。
多くの場合、SARコーディネーション戦略は、遠隔操作でマルチロボットシステムを制御し、半自律的な操作を可能にする人間の専門家によって手動で設計される。
しかし、接続性が制限され人間の介入ができない遠隔環境では、完全自律的な操作には分散的なコラボレーション戦略が必要である。
それでも、センサノイズ、アクティベーション障害、エージェント間通信データの操作などにより、分散化された調整は敵の環境では効果がない。
本稿では,対戦型マルチエージェント強化学習(MARL)に基づくアルゴリズムアプローチを提案する。
本セットアップでは,目標の発見に要する平均時間を最小限に抑えて,障害物の多い地理的領域において,目標を戦略的に発見することを目的としている。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
marlにおける分散実行(ctde)パラダイムを用いた集中型トレーニングに基づいて,動的なチームコーディネーションのモダリティを学習し,複雑な協調競争シナリオにおいて創発的なチームの行動を検出するために,階層的メタラーニングフレームワークを利用する。
本手法の有効性は,良性エージェントと敵エージェントの仕様,ターゲットロケーション,エージェント報酬の異なるグリッドワールド環境のプロトタイプ群で実証した。
関連論文リスト
- Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - LPAC: Learnable Perception-Action-Communication Loops with Applications
to Coverage Control [80.86089324742024]
本稿では,その問題に対する学習可能なパーセプション・アクション・コミュニケーション(LPAC)アーキテクチャを提案する。
CNNは局所認識を処理する。グラフニューラルネットワーク(GNN)はロボットのコミュニケーションを促進する。
評価の結果,LPACモデルは標準分散型および集中型カバレッジ制御アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-01-10T00:08:00Z) - Asynchronous Perception-Action-Communication with Graph Neural Networks [93.58250297774728]
グローバルな目的を達成するため,大規模なロボット群における協調作業は,大規模環境における課題である。
ロボットはパーセプション・アクション・コミュニケーションループを実行し、ローカル環境を認識し、他のロボットと通信し、リアルタイムで行動を起こす必要がある。
近年では、フロッキングやカバレッジ制御などのアプリケーションでグラフニューラルネットワーク(GNN)を使用してこの問題に対処している。
本稿では、分散化されたGNNを用いてナビゲーション動作を計算し、通信のためのメッセージを生成するロボット群における非同期PACフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T21:20:50Z) - Communication-Efficient Reinforcement Learning in Swarm Robotic Networks
for Maze Exploration [2.958532752589616]
コミュニケーションは、Swarmロボットの協調の成功の鍵である。
本稿では,Swarmロボットをコーディネートする通信効率の高い分散協調強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T16:56:00Z) - Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments [18.348489257164356]
本稿では,オブジェクト指向生成モデル(OCGM)を多目的ゴール識別に活用する,効率的なスキル獲得システムを提案する。
OCGMは、新しいシーンでワンショットターゲットオブジェクトの識別と再識別を可能にし、MPは障害物を避けながらロボットを対象オブジェクトに誘導することができる。
論文 参考訳(メタデータ) (2023-03-06T18:49:59Z) - Simulation of robot swarms for learning communication-aware coordination [0.0]
我々は、全能集中型コントローラから得られる局所的な観測を入力として、エンドツーエンドのニューラルネットワークを訓練する。
実験は、平面ロボットの高性能オープンソースシミュレータであるEnkiで実施されている。
論文 参考訳(メタデータ) (2023-02-25T17:17:40Z) - Hierarchical Reinforcement Learning with Opponent Modeling for
Distributed Multi-agent Cooperation [13.670618752160594]
深層強化学習(DRL)はエージェントと環境の相互作用を通じて多エージェント協調に有望なアプローチを提供する。
従来のDRLソリューションは、ポリシー探索中に連続的なアクション空間を持つ複数のエージェントの高次元に悩まされる。
効率的な政策探索のための高レベル意思決定と低レベル個別制御を用いた階層型強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-25T19:09:29Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Graph Neural Networks for Decentralized Multi-Robot Submodular Action
Selection [101.38634057635373]
ロボットがチームサブモジュールの目的を最大化するために共同で行動を選択する必要があるアプリケーションに焦点を当てる。
分散通信によるサブモジュール化に向けた汎用学習アーキテクチャを提案する。
大規模ロボットネットワークによるアクティブターゲットカバレッジのシナリオにおいて、GNNベースの学習アプローチのパフォーマンスを実証します。
論文 参考訳(メタデータ) (2021-05-18T15:32:07Z) - Learning Connectivity for Data Distribution in Robot Teams [96.39864514115136]
グラフニューラルネットワーク(GNN)を用いたアドホックネットワークにおけるデータ分散のためのタスク非依存,分散化,低レイテンシ手法を提案する。
当社のアプローチは、グローバル状態情報に基づいたマルチエージェントアルゴリズムを各ロボットで利用可能にすることで機能させます。
我々は,情報の平均年齢を報酬関数として強化学習を通じて分散gnn通信政策を訓練し,タスク固有の報酬関数と比較してトレーニング安定性が向上することを示す。
論文 参考訳(メタデータ) (2021-03-08T21:48:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。