論文の概要: MUI-TARE: Multi-Agent Cooperative Exploration with Unknown Initial
Position
- arxiv url: http://arxiv.org/abs/2209.10775v1
- Date: Thu, 22 Sep 2022 04:33:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 14:10:31.789859
- Title: MUI-TARE: Multi-Agent Cooperative Exploration with Unknown Initial
Position
- Title(参考訳): MUI-TARE: 初期位置不明の多エージェント協調探索
- Authors: Jingtian Yan, Xingqiao Lin, Zhongqiang Ren, Shiqi Zhao, Jieqiong Yu,
Chao Cao, Peng Yin, Ji Zhang, and Sebastian Scherer
- Abstract要約: サブマップマージプロセスの品質指標に基づくライダーベースのマルチエージェント探索のための新しいアプローチを開発した。
我々のアプローチは、平均的なベースラインよりも50%効率が良く、サブマップをしっかりとマージする。
- 参考スコア(独自算出の注目度): 12.921108151387696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent exploration of a bounded 3D environment with unknown initial
positions of agents is a challenging problem. It requires quickly exploring the
environments as well as robustly merging the sub-maps built by the agents. We
take the view that the existing approaches are either aggressive or
conservative: Aggressive strategies merge two sub-maps built by different
agents together when overlap is detected, which can lead to incorrect merging
due to the false-positive detection of the overlap and is thus not robust.
Conservative strategies direct one agent to revisit an excessive amount of the
historical trajectory of another agent for verification before merging, which
can lower the exploration efficiency due to the repeated exploration of the
same space. To intelligently balance the robustness of sub-map merging and
exploration efficiency, we develop a new approach for lidar-based multi-agent
exploration, which can direct one agent to repeat another agent's trajectory in
an \emph{adaptive} manner based on the quality indicator of the sub-map merging
process. Additionally, our approach extends the recent single-agent
hierarchical exploration strategy to multiple agents in a \emph{cooperative}
manner by planning for agents with merged sub-maps together to further improve
exploration efficiency. Our experiments show that our approach is up to 50\%
more efficient than the baselines on average while merging sub-maps robustly.
- Abstract(参考訳): エージェントの初期位置が不明な有界3次元環境のマルチエージェント探索は難しい課題である。
エージェントが構築したサブマップを堅牢にマージするだけでなく、迅速に環境を探索する必要がある。
攻撃的戦略は、重複が検出されたときに異なるエージェントによって構築された2つのサブマップをマージするので、重複が偽陽性で検出されたため、誤ったマージにつながる可能性があり、したがって堅牢ではない。
保守的な戦略は、あるエージェントに対して、マージ前に他のエージェントの歴史的な軌道の過度な量を再検討するように指示し、同じスペースの繰り返しの探索によって探索効率を低下させる。
サブマップマージと探索効率のロバストさをインテリジェントにバランスさせるために,サブマップマージプロセスの品質指標に基づいて,あるエージェントに対して,別のエージェントの軌道を \emph{adaptive} で繰り返すことができるライダーベースのマルチエージェント探索手法を開発した。
さらに,最近の単一エージェント階層的探索戦略を複数のエージェントに拡張し,統合されたサブマップを持つエージェントの探索を計画し,探索効率をさらに向上させる。
実験の結果,提案手法は平均値のベースラインよりも最大50倍効率が高く,サブマップを頑健にマージすることがわかった。
関連論文リスト
- Decentralized Monte Carlo Tree Search for Partially Observable
Multi-agent Pathfinding [49.730902939565986]
マルチエージェントパスフィンディング問題は、グラフに閉じ込められたエージェントのグループに対するコンフリクトフリーパスのセットを見つけることである。
本研究では、エージェントが他のエージェントをローカルにのみ観察できる分散MAPF設定に焦点を当てた。
MAPFタスクのための分散マルチエージェントモンテカルロ木探索法を提案する。
論文 参考訳(メタデータ) (2023-12-26T06:57:22Z) - Deep Multi-Agent Reinforcement Learning for Decentralized Active
Hypothesis Testing [11.639503711252663]
我々は,深層多エージェント強化学習の枠組みに根ざした新しいアルゴリズムを導入することで,マルチエージェント能動仮説テスト(AHT)問題に取り組む。
エージェントが協調戦略を学習し、性能を向上させる能力を効果的に示す実験結果を包括的に提示する。
論文 参考訳(メタデータ) (2023-09-14T01:18:04Z) - Scalable Multi-agent Covering Option Discovery based on Kronecker Graphs [49.71319907864573]
本稿では,分解が容易なマルチエージェントスキル発見法を提案する。
我々のキーとなる考え方は、合同状態空間をクロネッカーグラフとして近似することであり、そのフィドラーベクトルを直接見積もることができる。
ラプラシアンスペクトルを直接計算することは、無限大の状態空間を持つタスクには難易度が高いことを考慮し、さらに本手法の深層学習拡張を提案する。
論文 参考訳(メタデータ) (2023-07-21T14:53:12Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Learning Multi-agent Skills for Tabular Reinforcement Learning using
Factor Graphs [41.17714498464354]
エージェント間の協調的な探索行動により,マルチエージェントの選択肢を直接計算できることが示唆された。
提案アルゴリズムは,マルチエージェントオプションの同定に成功し,シングルエージェントオプションや非オプションを用いることで,従来よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-01-20T15:33:08Z) - Cooperative Exploration for Multi-Agent Deep Reinforcement Learning [127.4746863307944]
深層強化学習のための協調型マルチエージェント探索(CMAE)を提案する。
ゴールは正規化エントロピーに基づく手法により、複数の射影状態空間から選択される。
CMAEが様々なタスクのベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2021-07-23T20:06:32Z) - Decentralised Approach for Multi Agent Path Finding [6.599344783327053]
MAPF (Multi Agent Path Finding) は、空間的に拡張されたエージェントに対する競合のない経路の同定を必要とする。
これらは、Convoy Movement ProblemやTraning Schedulingといった現実世界の問題に適用できる。
提案手法であるDecentralized Multi Agent Path Finding (DeMAPF) は、MAPFを経路計画と割り当ての問題の系列として扱う。
論文 参考訳(メタデータ) (2021-06-03T18:07:26Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z) - Never Give Up: Learning Directed Exploration Strategies [63.19616370038824]
そこで我々は,多岐にわたる探索政策を学習し,ハード・サーベイ・ゲームを解決するための強化学習エージェントを提案する。
エージェントの最近の経験に基づいて,k-アネレスト隣人を用いたエピソード記憶に基づく本質的な報酬を構築し,探索政策を訓練する。
自己教師付き逆動力学モデルを用いて、近くのルックアップの埋め込みを訓練し、エージェントが制御できる新しい信号をバイアスする。
論文 参考訳(メタデータ) (2020-02-14T13:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。