論文の概要: Distributed Reinforcement Learning for Flexible and Efficient UAV Swarm
Control
- arxiv url: http://arxiv.org/abs/2103.04666v1
- Date: Mon, 8 Mar 2021 11:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 20:48:55.744865
- Title: Distributed Reinforcement Learning for Flexible and Efficient UAV Swarm
Control
- Title(参考訳): 柔軟かつ効率的なuavスウォーム制御のための分散強化学習
- Authors: Federico Venturini, Federico Mason, Francesco Pase, Federico
Chiariotti, Alberto Testolin, Andrea Zanella, Michele Zorzi
- Abstract要約: 本稿では,大規模群に拡大する分散強化学習(RL)手法を提案する。
本実験では, 本手法がコミュニケーションチャネル障害に強い効果的な戦略を導出できることを示した。
また,本手法は計算集約的なルックアヘッドに比べて優れた性能を実現することを示す。
- 参考スコア(独自算出の注目度): 28.463670610865837
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Over the past few years, the use of swarms of Unmanned Aerial Vehicles (UAVs)
in monitoring and remote area surveillance applications has become widespread
thanks to the price reduction and the increased capabilities of drones. The
drones in the swarm need to cooperatively explore an unknown area, in order to
identify and monitor interesting targets, while minimizing their movements. In
this work, we propose a distributed Reinforcement Learning (RL) approach that
scales to larger swarms without modifications. The proposed framework relies on
the possibility for the UAVs to exchange some information through a
communication channel, in order to achieve context-awareness and implicitly
coordinate the swarm's actions. Our experiments show that the proposed method
can yield effective strategies, which are robust to communication channel
impairments, and that can easily deal with non-uniform distributions of targets
and obstacles. Moreover, when agents are trained in a specific scenario, they
can adapt to a new one with minimal additional training. We also show that our
approach achieves better performance compared to a computationally intensive
look-ahead heuristic.
- Abstract(参考訳): 過去数年間、無人航空機(uav)の群れが監視や遠隔地監視の用途に利用され、価格の引き下げとドローンの能力の増大により普及してきた。
群れのドローンは、動きを最小限に抑えながら、興味深い目標を特定し、監視するために、未知の領域を共同で探索する必要がある。
本研究では,より大きな群にスケールアップする分散強化学習(RL)手法を提案する。
提案したフレームワークは、UAVが通信チャネルを介して情報交換を行う可能性に依存しており、コンテキスト認識を実現し、Swarmの動作を暗黙的に調整する。
提案手法は,通信路障害に対して頑健であり,目標や障害物の非一様分布に容易に対応できる効果的な戦略が得られることを示す。
さらに、エージェントが特定のシナリオでトレーニングされると、最小限の追加トレーニングで新しいものに適応できます。
また,本手法は,計算集約的なルックアヘッドヒューリスティックよりも優れた性能を示すことを示す。
関連論文リスト
- Predictive Covert Communication Against Multi-UAV Surveillance Using Graph Koopman Autoencoder [27.178522837149053]
低確率検出(LPD)通信は、無線周波数(RF)信号の存在を隠蔽し、監視を回避することを目的としている。
UAVの将来の位置を正確に予測することは、リアルタイムのLPD通信を可能にするために不可欠である。
マルチUAV監視下での地上アドホックネットワークにおける検出可能性の最小化を目的とした,予測被覆通信と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-25T16:02:45Z) - UAV-enabled Collaborative Beamforming via Multi-Agent Deep Reinforcement Learning [79.16150966434299]
本稿では,UAVを用いた協調ビームフォーミング多目的最適化問題 (UCBMOP) を定式化し,UAVの伝送速度を最大化し,全UAVのエネルギー消費を最小化する。
ヘテロジニアス・エージェント・信頼領域ポリシー最適化(HATRPO)を基本フレームワークとし,改良されたHATRPOアルゴリズム,すなわちHATRPO-UCBを提案する。
論文 参考訳(メタデータ) (2024-04-11T03:19:22Z) - Anti-Jamming Path Planning Using GCN for Multi-UAV [0.0]
UAVスワーミングの有効性は、ジャミング技術によって著しく損なわれる可能性がある。
UAV群集が集団知能を利用してジャム領域を予測する手法が提案されている。
マルチエージェント制御アルゴリズムを使用して、UAVスワムを分散し、ジャミングを回避し、ターゲットに到達すると再グループ化する。
論文 参考訳(メタデータ) (2024-03-13T07:28:05Z) - Graph Koopman Autoencoder for Predictive Covert Communication Against
UAV Surveillance [29.15836826461713]
低確率検出(LPD)通信は、無線周波数(RF)信号の存在を曖昧にすることを目的としている。
無人航空機(UAV)は、特定の関心領域をホバリングすることで地上からのRF信号を検出することができる。
本稿では,複数の固定翼UAVの軌跡を予測するために,グラフニューラルネットワーク(GNN)とクープマン理論を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-23T23:42:55Z) - Aerial View Goal Localization with Reinforcement Learning [6.165163123577484]
本稿では,実際のUAVへのアクセスを必要とせずに,SAR(Search-and-Rescue)のようなセットアップをエミュレートするフレームワークを提案する。
この枠組みでは、エージェントが空中画像(探索領域のプロキシ)上で動作し、視覚的手がかりとして記述されたゴールのローカライズを行う。
AiRLocは、探索(遠方目標探索)と搾取(近方目標の局所化)を分離する強化学習(RL)に基づくモデルである。
論文 参考訳(メタデータ) (2022-09-08T10:27:53Z) - Collaborative Target Search with a Visual Drone Swarm: An Adaptive
Curriculum Embedded Multistage Reinforcement Learning Approach [0.0]
適応型カリキュラム組込み多段階学習(ACEMSL)という,データ効率の高い深層強化学習(DRL)手法を提案する。
我々は、協調対象探索タスクを、個別の障害物回避、対象探索、エージェント間協調を含むいくつかのサブタスクに分解し、多段階学習でエージェントを段階的に訓練する。
我々は、訓練されたモデルを実際の視覚ドローン群に展開し、微調整なしでCTS操作を行う。
論文 参考訳(メタデータ) (2022-04-26T09:32:22Z) - 3D UAV Trajectory and Data Collection Optimisation via Deep
Reinforcement Learning [75.78929539923749]
無人航空機(UAV)は現在、無線通信におけるネットワーク性能とカバレッジを高めるために配備され始めている。
UAV支援モノのインターネット(IoT)のための最適な資源配分方式を得ることは困難である
本稿では,UAVの最も短い飛行経路に依存しつつ,IoTデバイスから収集したデータ量を最大化しながら,新しいUAV支援IoTシステムを設計する。
論文 参考訳(メタデータ) (2021-06-06T14:08:41Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - Adversarial Attacks On Multi-Agent Communication [80.4392160849506]
現代の自律システムはすぐに大規模に展開され、協調型マルチエージェントシステムの可能性を広げる。
このような利点は、セキュリティ侵害に対して脆弱であることが示されている通信チャネルに大きく依存している。
本稿では,エージェントが学習した中間表現を共有してコミュニケーションする新しいマルチエージェント環境において,このような攻撃を探索する。
論文 参考訳(メタデータ) (2021-01-17T00:35:26Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。