論文の概要: Learning Efficient Multi-Agent Cooperative Visual Exploration
- arxiv url: http://arxiv.org/abs/2110.05734v1
- Date: Tue, 12 Oct 2021 04:48:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 00:39:37.081576
- Title: Learning Efficient Multi-Agent Cooperative Visual Exploration
- Title(参考訳): マルチエージェント協調視覚探索の学習
- Authors: Chao Yu, Xinyi Yang, Jiaxuan Gao, Huazhong Yang, Yu Wang, Yi Wu
- Abstract要約: 複数のエージェントによる視覚的屋内探索の課題を考察し、エージェントはできるだけ少ないステップで屋内全領域を探索する必要がある。
我々は、最先端の単一エージェントRLソリューションであるActive Neural SLAM(ANS)を、新しいRLベースのグローバルゴールプランナーであるSpatial Coordination Planner(SCP)を導入してマルチエージェント設定に拡張する。
SCPは、各エージェントの空間情報をエンドツーエンドに活用し、探索効率の高い異なる空間目標に向けて効果的にエージェントを誘導する。
- 参考スコア(独自算出の注目度): 18.42493808094464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the task of visual indoor exploration with multiple agents, where
the agents need to cooperatively explore the entire indoor region using as few
steps as possible. Classical planning-based methods often suffer from
particularly expensive computation at each inference step and a limited
expressiveness of cooperation strategy. By contrast, reinforcement learning
(RL) has become a trending paradigm for tackling this challenge due to its
modeling capability of arbitrarily complex strategies and minimal inference
overhead. We extend the state-of-the-art single-agent RL solution, Active
Neural SLAM (ANS), to the multi-agent setting by introducing a novel RL-based
global-goal planner, Spatial Coordination Planner (SCP), which leverages
spatial information from each individual agent in an end-to-end manner and
effectively guides the agents to navigate towards different spatial goals with
high exploration efficiency. SCP consists of a transformer-based relation
encoder to capture intra-agent interactions and a spatial action decoder to
produce accurate goals. In addition, we also implement a few multi-agent
enhancements to process local information from each agent for an aligned
spatial representation and more precise planning. Our final solution,
Multi-Agent Active Neural SLAM (MAANS), combines all these techniques and
substantially outperforms 4 different planning-based methods and various RL
baselines in the photo-realistic physical testbed, Habitat.
- Abstract(参考訳): 本稿では,複数のエージェントによる視覚的室内探索の課題について検討し,エージェントは可能な限り少ないステップで屋内領域全体を協調的に探索する必要がある。
古典的な計画に基づく手法は、推論ステップごとに特に高価な計算に悩まされ、協調戦略の限定的な表現性に悩まされることが多い。
対照的に、強化学習(RL)は、任意の複雑な戦略のモデリング能力と最小の推論オーバーヘッドのため、この課題に取り組むためのトレンドパラダイムとなっている。
本稿では,各エージェントの空間情報をエンドツーエンドで活用し,探索効率の高い異なる空間目標に向けて,エージェントを効果的に誘導する新しいrlベースのグローバルゴールプランナーである空間協調プランナー(scp)を導入することにより,最先端のシングルエージェントrlソリューションであるアクティブニューラルスラム(ans)をマルチエージェント設定に拡張する。
SCPは、エージェント内相互作用をキャプチャするトランスフォーマーベースのリレーションエンコーダと、正確な目標を生成する空間行動デコーダから構成される。
さらに,各エージェントからの局所情報を処理するマルチエージェント拡張も実装し,協調した空間表現とより正確な計画を行う。
最後のソリューションであるMulti-Agent Active Neural SLAM (MAANS) は、これらの技術を組み合わせて、4つの異なるプランニングベース手法と、写真リアルな物理テストベッドHabitatにおける様々なRLベースラインを大幅に上回る。
関連論文リスト
- Learning Emergence of Interaction Patterns across Independent RL Agents in Multi-Agent Environments [3.0284592792243794]
ボトムアップネットワーク(BUN)は、マルチエージェントの集合を統一エンティティとして扱う。
協調ナビゲーションやトラヒックコントロールなどのタスクを含む,さまざまな協調型マルチエージェントシナリオに対する実証的な評価は,BUNが計算コストを大幅に削減したベースライン手法よりも優れていることを一貫して証明している。
論文 参考訳(メタデータ) (2024-10-03T14:25:02Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Attention Graph for Multi-Robot Social Navigation with Deep
Reinforcement Learning [0.0]
深部強化学習(RL)を用いたマルチエージェント社会認識ナビゲーション戦略の学習方法であるMultiSocを提案する。
マルチエージェントディープRLに関する最近の研究から着想を得た本手法は,エージェント相互作用のグラフベース表現を利用して,エンティティ(歩行者とエージェント)の位置と視野を組み合わせる。
提案手法はソーシャルナビゲーションよりも高速に学習し,複数の異種人との群集ナビゲーションに挑戦する上で,効率的なマルチエージェントの暗黙調整を可能にする。
論文 参考訳(メタデータ) (2024-01-31T15:24:13Z) - MASP: Scalable GNN-based Planning for Multi-Agent Navigation [17.788592987873905]
エージェント数の多いナビゲーションタスクのための目標条件付き階層型プランナを提案する。
また、グラフニューラルネットワーク(GNN)を活用し、エージェントと目標間の相互作用をモデル化し、目標達成を改善する。
その結果、MASPは古典的な計画ベースの競合やRLベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-12-05T06:05:04Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Hierarchical Reinforcement Learning with Opponent Modeling for
Distributed Multi-agent Cooperation [13.670618752160594]
深層強化学習(DRL)はエージェントと環境の相互作用を通じて多エージェント協調に有望なアプローチを提供する。
従来のDRLソリューションは、ポリシー探索中に連続的なアクション空間を持つ複数のエージェントの高次元に悩まされる。
効率的な政策探索のための高レベル意思決定と低レベル個別制御を用いた階層型強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-25T19:09:29Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - MAPPER: Multi-Agent Path Planning with Evolutionary Reinforcement
Learning in Mixed Dynamic Environments [30.407700996710023]
本稿では,進化的強化学習法(MAPPER)を用いた分散部分観測可能なマルチエージェントパス計画を提案する。
我々は、長距離ナビゲーションタスクを、グローバルプランナーの指導の下で、より簡単なサブタスクに分解する。
提案手法は,イメージベース表現を用いて動的障害物の挙動をモデル化し,均質性の仮定を伴わない混合動的環境におけるポリシーを訓練する。
論文 参考訳(メタデータ) (2020-07-30T20:14:42Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。