論文の概要: Crowd-Aware Multi-Agent Pathfinding With Boosted Curriculum
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2309.10275v1
- Date: Tue, 19 Sep 2023 03:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 16:34:01.540885
- Title: Crowd-Aware Multi-Agent Pathfinding With Boosted Curriculum
Reinforcement Learning
- Title(参考訳): 強化カリキュラム強化学習によるクラウドアウェアマルチエージェントパスファインディング
- Authors: Phu Pham, Aniket Bera
- Abstract要約: 混在環境におけるマルチエージェントパス探索 (MAPF) は, 移動計画において困難な問題となる。
我々は、強化学習を活用することによってこの問題に対処する、クラウド対応の分散型アプローチであるCRAMPを紹介する。
CRAMPは, ソリューションの品質を58%まで改善し, 従来法に比べて5%まで向上した。
- 参考スコア(独自算出の注目度): 18.761382956917327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Agent Path Finding (MAPF) in crowded environments presents a
challenging problem in motion planning, aiming to find collision-free paths for
all agents in the system. MAPF finds a wide range of applications in various
domains, including aerial swarms, autonomous warehouse robotics, and
self-driving vehicles. The current approaches for MAPF can be broadly
categorized into two main categories: centralized and decentralized planning.
Centralized planning suffers from the curse of dimensionality and thus does not
scale well in large and complex environments. On the other hand, decentralized
planning enables agents to engage in real-time path planning within a partially
observable environment, demonstrating implicit coordination. However, they
suffer from slow convergence and performance degradation in dense environments.
In this paper, we introduce CRAMP, a crowd-aware decentralized approach to
address this problem by leveraging reinforcement learning guided by a boosted
curriculum-based training strategy. We test CRAMP on simulated environments and
demonstrate that our method outperforms the state-of-the-art decentralized
methods for MAPF on various metrics. CRAMP improves the solution quality up to
58% measured in makespan and collision count, and up to 5% in success rate in
comparison to previous methods.
- Abstract(参考訳): 混在環境におけるマルチエージェント経路探索(MAPF)は,システム内のすべてのエージェントに対して衝突のない経路を見つけることを目的として,動作計画において困難な問題を示す。
MAPFは、航空群、自律倉庫ロボット、自動運転車など、さまざまな分野の幅広い応用を見出している。
MAPFの現在のアプローチは、中央集権計画と分散計画の2つの主要なカテゴリに大別できる。
集中型計画では、次元の呪いに苦しむため、大規模で複雑な環境ではうまくスケールできない。
一方、分散計画では、エージェントが部分的に観測可能な環境下でリアルタイムの経路計画に従事し、暗黙の協調を示すことができる。
しかし、密集した環境では収束が遅く、性能が低下する。
本稿では,増進カリキュラムベースの学習戦略によって指導された強化学習を活用することで,この問題に対処するクラウドアウェアな分散型アプローチであるCRAMPを紹介する。
シミュレーション環境でCRAMPを試験し,MAPFの最先端の分散化手法よりも優れた性能を示す。
CRAMPは, メースパンおよび衝突数で測定された溶液品質を最大58%改善し, 従来の方法と比較して5%の成功率を示した。
関連論文リスト
- HiMAP: Learning Heuristics-Informed Policies for Large-Scale Multi-Agent
Pathfinding [16.36594480478895]
Heuristics-Informed Multi-Agent Pathfinding (HiMAP)
Heuristics-Informed Multi-Agent Pathfinding (HiMAP)
論文 参考訳(メタデータ) (2024-02-23T13:01:13Z) - Scalable Mechanism Design for Multi-Agent Path Finding [90.68703851865585]
MAPF (Multi-Agent Path Finding) は、複数のエージェントが特定の目標地点に向かって共有領域を同時に移動するための経路を決定する。
最適解を見つけることは、しばしば計算不可能であり、近似アルゴリズムを用いることが不可欠である。
本稿では,MAPFのスケーラブルな機構設計の問題を紹介し,その対策として3つのメカニズムを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:26:04Z) - UAV Pathfinding in Dynamic Obstacle Avoidance with Multi-agent
Reinforcement Learning [6.8237783245324035]
マルチエージェント強化学習に基づく学習手法は,エージェントにとって実現可能かつ安全な経路のオンライン計画において重要である。
マルチエージェント強化学習に基づく分散実行手法を用いた新しい集中型学習法を提案する。
シミュレーション,室内環境,屋外環境における実験結果から,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2023-10-25T14:21:22Z) - Learn to Follow: Decentralized Lifelong Multi-agent Pathfinding via
Planning and Learning [46.354187895184154]
マルチエージェントパスフィンディング(MAPF)問題は通常、グラフに制限されたエージェントの集合に対する競合のないパスの集合を見つけるよう要求する。
本研究では,エージェントの位置や目標に関する情報をすべて収集する中央制御器が存在しない場合の分散MAPF設定について検討する。
我々は,先行するエージェントに新たな目標を連続的に割り当てることを含むMAPFの実用上重要な寿命変化に焦点をあてる。
論文 参考訳(メタデータ) (2023-10-02T13:51:32Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Scalable Multi-Agent Model-Based Reinforcement Learning [1.95804735329484]
我々は,モデルベース強化学習(MBRL)を用いて協調環境における集中型トレーニングをさらに活用するMAMBAという新しい手法を提案する。
エージェント間のコミュニケーションは、実行期間中に各エージェントのワールドモデルを維持するのに十分であり、一方、仮想ロールアウトはトレーニングに使用でき、環境と対話する必要がなくなる。
論文 参考訳(メタデータ) (2022-05-25T08:35:00Z) - Multi-Agent Terraforming: Efficient Multi-Agent Path Finding via
Environment Manipulation [12.401344261399613]
マルチエージェントパスフィニング(Multi-agent pathfinding)は、障害が散らばった環境において、開始時から目標地点まで、エージェントのチームが衝突のない経路を計画することに関心がある。
我々はMAPFの新たな拡張を導入し、Terraforming MAPF (tMAPF) と呼び、いくつかのエージェントが障害を移動して他のエージェントへの道をクリアする役割を担っている。
我々は、tMAPFに取り組むために、CBSとPBSという2つの最先端アルゴリズムを拡張し、静的な障害物設定で可能な限り優れた解を常に上回ることを示す。
論文 参考訳(メタデータ) (2022-03-20T12:18:35Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Flatland Competition 2020: MAPF and MARL for Efficient Train
Coordination on a Grid World [49.80905654161763]
車両再スケジュール問題(vrsp)の解法開発を目的としたフラットランドコンペティション
VRSPは、交通ネットワークにおける旅行のスケジュールと、故障が発生した場合の車両の再スケジュールに関するものである。
現代の鉄道網の複雑化は、交通の動的リアルタイムスケジューリングを事実上不可能にします。
論文 参考訳(メタデータ) (2021-03-30T17:13:29Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。