論文の概要: Crowd-Aware Multi-Agent Pathfinding With Boosted Curriculum
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2309.10275v1
- Date: Tue, 19 Sep 2023 03:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 16:34:01.540885
- Title: Crowd-Aware Multi-Agent Pathfinding With Boosted Curriculum
Reinforcement Learning
- Title(参考訳): 強化カリキュラム強化学習によるクラウドアウェアマルチエージェントパスファインディング
- Authors: Phu Pham, Aniket Bera
- Abstract要約: 混在環境におけるマルチエージェントパス探索 (MAPF) は, 移動計画において困難な問題となる。
我々は、強化学習を活用することによってこの問題に対処する、クラウド対応の分散型アプローチであるCRAMPを紹介する。
CRAMPは, ソリューションの品質を58%まで改善し, 従来法に比べて5%まで向上した。
- 参考スコア(独自算出の注目度): 18.761382956917327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Agent Path Finding (MAPF) in crowded environments presents a
challenging problem in motion planning, aiming to find collision-free paths for
all agents in the system. MAPF finds a wide range of applications in various
domains, including aerial swarms, autonomous warehouse robotics, and
self-driving vehicles. The current approaches for MAPF can be broadly
categorized into two main categories: centralized and decentralized planning.
Centralized planning suffers from the curse of dimensionality and thus does not
scale well in large and complex environments. On the other hand, decentralized
planning enables agents to engage in real-time path planning within a partially
observable environment, demonstrating implicit coordination. However, they
suffer from slow convergence and performance degradation in dense environments.
In this paper, we introduce CRAMP, a crowd-aware decentralized approach to
address this problem by leveraging reinforcement learning guided by a boosted
curriculum-based training strategy. We test CRAMP on simulated environments and
demonstrate that our method outperforms the state-of-the-art decentralized
methods for MAPF on various metrics. CRAMP improves the solution quality up to
58% measured in makespan and collision count, and up to 5% in success rate in
comparison to previous methods.
- Abstract(参考訳): 混在環境におけるマルチエージェント経路探索(MAPF)は,システム内のすべてのエージェントに対して衝突のない経路を見つけることを目的として,動作計画において困難な問題を示す。
MAPFは、航空群、自律倉庫ロボット、自動運転車など、さまざまな分野の幅広い応用を見出している。
MAPFの現在のアプローチは、中央集権計画と分散計画の2つの主要なカテゴリに大別できる。
集中型計画では、次元の呪いに苦しむため、大規模で複雑な環境ではうまくスケールできない。
一方、分散計画では、エージェントが部分的に観測可能な環境下でリアルタイムの経路計画に従事し、暗黙の協調を示すことができる。
しかし、密集した環境では収束が遅く、性能が低下する。
本稿では,増進カリキュラムベースの学習戦略によって指導された強化学習を活用することで,この問題に対処するクラウドアウェアな分散型アプローチであるCRAMPを紹介する。
シミュレーション環境でCRAMPを試験し,MAPFの最先端の分散化手法よりも優れた性能を示す。
CRAMPは, メースパンおよび衝突数で測定された溶液品質を最大58%改善し, 従来の方法と比較して5%の成功率を示した。
関連論文リスト
- Distributed NeRF Learning for Collaborative Multi-Robot Perception [16.353043979615496]
マルチエージェントシステムは、環境のより包括的なマッピング、より高速なカバレッジ、耐障害性の向上を提供することができる。
本稿では,RGB画像からニューラルレイディアンス場(NeRF)を総合的に学習してシーンを表現できる協調型マルチエージェント認識システムを提案する。
本手法の有効性は,挑戦的な実世界のシーンを含むデータセットに対する広範な実験を通して示す。
論文 参考訳(メタデータ) (2024-09-30T13:45:50Z) - Generalizability of Graph Neural Networks for Decentralized Unlabeled Motion Planning [72.86540018081531]
ラベルなしの動作計画では、衝突回避を確保しながら、ロボットのセットを目標の場所に割り当てる。
この問題は、探査、監視、輸送などの応用において、マルチロボットシステムにとって不可欠なビルディングブロックを形成している。
この問題に対処するために、各ロボットは、その400ドルのアネレストロボットと$k$アネレストターゲットの位置のみを知っている分散環境で対処する。
論文 参考訳(メタデータ) (2024-09-29T23:57:25Z) - Ensembling Prioritized Hybrid Policies for Multi-agent Pathfinding [18.06081009550052]
MARL(Multi-Agent Reinforcement Learning)をベースとしたMAPF(Multi-Agent Path Finding)が最近注目されている。
いくつかのMARL-MAPFメソッドは、あるエージェントが知覚できる情報を豊かにするためにコミュニケーションを使用する。
優先度付きハイブリッドポリシ(EPH)を組み込む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-12T11:47:12Z) - Scalable Mechanism Design for Multi-Agent Path Finding [87.40027406028425]
MAPF (Multi-Agent Path Finding) は、複数のエージェントが同時に移動し、与えられた目標地点に向かって共有領域を通って衝突しない経路を決定する。
最適解を見つけることは、しばしば計算不可能であり、近似的な準最適アルゴリズムを用いることが不可欠である。
本稿では、MAPFのスケーラブルな機構設計の問題を紹介し、MAPFアルゴリズムを近似した3つの戦略防御機構を提案する。
論文 参考訳(メタデータ) (2024-01-30T14:26:04Z) - Multi-Agent Reinforcement Learning-Based UAV Pathfinding for Obstacle Avoidance in Stochastic Environment [12.122881147337505]
マルチエージェント強化学習に基づく分散実行手法を用いた新しい集中型学習法を提案する。
このアプローチでは、エージェントは集中型プランナーとのみ通信し、オンラインで分散的な決定を行う。
訓練効率を高めるため,多段階強化学習において多段階値収束を行う。
論文 参考訳(メタデータ) (2023-10-25T14:21:22Z) - Learn to Follow: Decentralized Lifelong Multi-agent Pathfinding via
Planning and Learning [46.354187895184154]
マルチエージェントパスフィンディング(MAPF)問題は通常、グラフに制限されたエージェントの集合に対する競合のないパスの集合を見つけるよう要求する。
本研究では,エージェントの位置や目標に関する情報をすべて収集する中央制御器が存在しない場合の分散MAPF設定について検討する。
我々は,先行するエージェントに新たな目標を連続的に割り当てることを含むMAPFの実用上重要な寿命変化に焦点をあてる。
論文 参考訳(メタデータ) (2023-10-02T13:51:32Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Learning Cooperation and Online Planning Through Simulation and Graph
Convolutional Network [5.505634045241288]
マルチエージェント協調環境のためのシミュレーションベースのオンライン計画アルゴリズム「SiCLOP」を導入する。
具体的には、SiCLOPはMCTS(Monte Carlo Tree Search)を補完し、協調学習にコーディネーショングラフ(CG)とグラフニューラルネットワーク(GCN)を使用する。
また、アクション空間を効果的に刈り取ることによりスケーラビリティも向上する。
論文 参考訳(メタデータ) (2021-10-16T05:54:32Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。