論文の概要: UAV Pathfinding in Dynamic Obstacle Avoidance with Multi-agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2310.16659v1
- Date: Wed, 25 Oct 2023 14:21:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 14:21:45.290849
- Title: UAV Pathfinding in Dynamic Obstacle Avoidance with Multi-agent
Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習による動的障害物回避におけるUAVパスフィンディング
- Authors: Qizhen Wu and Lei Chen and Kexin Liu and Jinhu Lv
- Abstract要約: マルチエージェント強化学習に基づく学習手法は,エージェントにとって実現可能かつ安全な経路のオンライン計画において重要である。
マルチエージェント強化学習に基づく分散実行手法を用いた新しい集中型学習法を提案する。
シミュレーション,室内環境,屋外環境における実験結果から,本手法の有効性が検証された。
- 参考スコア(独自算出の注目度): 6.8237783245324035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent reinforcement learning based methods are significant for online
planning of feasible and safe paths for agents in dynamic and uncertain
scenarios. Although some methods like fully centralized and fully decentralized
methods achieve a certain measure of success, they also encounter problems such
as dimension explosion and poor convergence, respectively. In this paper, we
propose a novel centralized training with decentralized execution method based
on multi-agent reinforcement learning to solve the dynamic obstacle avoidance
problem online. In this approach, each agent communicates only with the central
planner or only with its neighbors, respectively, to plan feasible and safe
paths online. We improve our methods based on the idea of model predictive
control to increase the training efficiency and sample utilization of agents.
The experimental results in both simulation, indoor, and outdoor environments
validate the effectiveness of our method. The video is available at
https://www.bilibili.com/video/BV1gw41197hV/?vd_source=9de61aecdd9fb684e546d032ef7fe7bf
- Abstract(参考訳): マルチエージェント強化学習に基づく手法は,動的かつ不確定なシナリオにおけるエージェントの実現可能かつ安全な経路のオンライン計画において重要である。
完全集中型手法や完全分散型手法のようないくつかの手法は一定の成功率を達成するが、次元の爆発や収束不良といった問題にも遭遇する。
本稿では,マルチエージェント強化学習に基づく分散実行方式による集中型学習を提案し,オンライン上での動的障害回避問題を解く。
このアプローチでは、各エージェントは中央のプランナーまたは近隣のプランナーとのみ通信し、オンライン上で実現可能かつ安全なパスを計画する。
モデル予測制御の考え方に基づく手法の改善により,エージェントのトレーニング効率とサンプル利用率の向上を図る。
シミュレーション,室内環境,屋外環境における実験結果から,本手法の有効性が検証された。
ビデオはhttps://www.bilibili.com/video/BV1gw41197hV/?
vd_source=9de61aecdd9fb684e546d032ef7fe7bf
関連論文リスト
- Learn to Follow: Decentralized Lifelong Multi-agent Pathfinding via
Planning and Learning [46.354187895184154]
マルチエージェントパスフィンディング(MAPF)問題は通常、グラフに制限されたエージェントの集合に対する競合のないパスの集合を見つけるよう要求する。
本研究では,エージェントの位置や目標に関する情報をすべて収集する中央制御器が存在しない場合の分散MAPF設定について検討する。
我々は,先行するエージェントに新たな目標を連続的に割り当てることを含むMAPFの実用上重要な寿命変化に焦点をあてる。
論文 参考訳(メタデータ) (2023-10-02T13:51:32Z) - Crowd-Aware Multi-Agent Pathfinding With Boosted Curriculum
Reinforcement Learning [18.761382956917327]
混在環境におけるマルチエージェントパス探索 (MAPF) は, 移動計画において困難な問題となる。
我々は、強化学習を活用することによってこの問題に対処する、クラウド対応の分散型アプローチであるCRAMPを紹介する。
CRAMPは, ソリューションの品質を58%まで改善し, 従来法に比べて5%まで向上した。
論文 参考訳(メタデータ) (2023-09-19T03:02:43Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [82.59166059130702]
拡散モデル(DM)は,最近オフライン強化学習を含む様々なシナリオで大きな成功を収めている。
この問題に対処する新しい生成型マルチエージェント学習フレームワークであるMADiffを提案する。
本実験は,マルチエージェント学習タスクにおけるベースラインアルゴリズムと比較して,MADiffの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - Expeditious Saliency-guided Mix-up through Random Gradient Thresholding [89.59134648542042]
混合学習アプローチはディープニューラルネットワークの一般化能力向上に有効であることが証明されている。
本稿では,両経路の分岐点に位置する新しい手法を提案する。
我々はR-Mixという手法を「Random Mix-up」という概念にちなむ。
より良い意思決定プロトコルが存在するかどうかという問題に対処するために、我々は、ミックスアップポリシーを決定する強化学習エージェントを訓練する。
論文 参考訳(メタデータ) (2022-12-09T14:29:57Z) - Relative Distributed Formation and Obstacle Avoidance with Multi-agent
Reinforcement Learning [20.401609420707867]
マルチエージェント強化学習(MARL)に基づく分散生成・障害物回避手法を提案する。
提案手法は, 障害物回避における生成誤差, 生成収束率, オンパー成功率に関して, ベースラインと比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-11-14T13:02:45Z) - Distributed Heuristic Multi-Agent Path Finding with Communication [7.854890646114447]
大規模ロボットシステムにはMAPF(Multi-Agent Path Finding)が不可欠である。
近年,部分観測可能な環境下での分散警察の学習に強化学習(RL)を適用している。
本稿では,深層学習とコミュニケーションを組み合わせることで,MAPFの新たな学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T18:50:58Z) - Decentralized Reinforcement Learning for Multi-Target Search and
Detection by a Team of Drones [12.055303570215335]
対象の探索と検出は、カバレッジ、監視、探索、観測、追跡回避など、さまざまな決定問題を含む。
我々は,未知の領域における静的な目標のセットを特定するために,航空機群(ドローン)を協調させるマルチエージェント深部強化学習法(MADRL)を開発した。
論文 参考訳(メタデータ) (2021-03-17T09:04:47Z) - Adaptive Serverless Learning [114.36410688552579]
本研究では,データから学習率を動的に計算できる適応型分散学習手法を提案する。
提案アルゴリズムは, 作業者数に対して線形高速化が可能であることを示す。
通信効率のオーバーヘッドを低減するため,通信効率のよい分散訓練手法を提案する。
論文 参考訳(メタデータ) (2020-08-24T13:23:02Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。