論文の概要: Q-learning Based System for Path Planning with UAV Swarms in Obstacle
Environments
- arxiv url: http://arxiv.org/abs/2303.17655v1
- Date: Thu, 30 Mar 2023 18:37:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 16:15:27.776560
- Title: Q-learning Based System for Path Planning with UAV Swarms in Obstacle
Environments
- Title(参考訳): 障害物環境におけるUAVスワムを用いた経路計画のためのQラーニングシステム
- Authors: Alejandro Puente-Castro, Daniel Rivero, Eurico Pedrosa, Artur Pereira,
Nuno Lau, Enrique Fernandez-Blanco
- Abstract要約: Q-Learning を利用した強化学習システムを提案する。
これらのパスの目標は、フィールド探索のようなタスクのための固定された障害のある領域の完全なカバレッジを保証することである。
結果は十分であり、システムはより少ない動きの解を得ることができる。
- 参考スコア(独自算出の注目度): 53.811199370767135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Path Planning methods for autonomous control of Unmanned Aerial Vehicle (UAV)
swarms are on the rise because of all the advantages they bring. There are more
and more scenarios where autonomous control of multiple UAVs is required. Most
of these scenarios present a large number of obstacles, such as power lines or
trees. If all UAVs can be operated autonomously, personnel expenses can be
decreased. In addition, if their flight paths are optimal, energy consumption
is reduced. This ensures that more battery time is left for other operations.
In this paper, a Reinforcement Learning based system is proposed for solving
this problem in environments with obstacles by making use of Q-Learning. This
method allows a model, in this particular case an Artificial Neural Network, to
self-adjust by learning from its mistakes and achievements. Regardless of the
size of the map or the number of UAVs in the swarm, the goal of these paths is
to ensure complete coverage of an area with fixed obstacles for tasks, like
field prospecting. Setting goals or having any prior information aside from the
provided map is not required. For experimentation, five maps of different sizes
with different obstacles were used. The experiments were performed with
different number of UAVs. For the calculation of the results, the number of
actions taken by all UAVs to complete the task in each experiment is taken into
account. The lower the number of actions, the shorter the path and the lower
the energy consumption. The results are satisfactory, showing that the system
obtains solutions in fewer movements the more UAVs there are. For a better
presentation, these results have been compared to another state-of-the-art
approach.
- Abstract(参考訳): 無人航空機群(uav)の自律制御のための経路計画手法は、それらがもたらすすべての利点のために高まっている。
複数のUAVを自律的に制御する必要があるシナリオはますます増えている。
これらのシナリオのほとんどは、電力線や木のような多くの障害をもたらします。
すべてのUAVを自律的に運用できれば、人件費を削減できる。
さらに、飛行経路が最適であれば、エネルギー消費は減少する。
これにより、他の操作により多くのバッテリ時間が残される。
本稿では,q-learningを用いて障害のある環境においてこの問題を解決するための強化学習ベースシステムを提案する。
この方法では、モデル、特にこの場合、ニューラルネットワークは、失敗や成果から学習することで自己調整を可能にする。
地図のサイズやSwarm内のUAVの数に関わらず、これらのパスの目標は、フィールド探索のようなタスクのための固定された障害のある領域を完全にカバーすることである。
目標を設定したり、提供されたマップ以外に事前情報を持つ必要はない。
実験では、異なる障害物を持つ大きさの5つのマップが使用された。
実験は異なる数のUAVを用いて行われた。
結果の計算には、各実験でタスクを完了するためにすべてのuavが行うアクションの数を考慮に入れる。
アクションの数が少ないほど、パスが短くなり、エネルギー消費が減ります。
結果は満足でき、システムはより多くのuavが存在するほど、より少ない動きで解を得る。
より良いプレゼンテーションのために、これらの結果は別の最先端のアプローチと比較された。
関連論文リスト
- Autonomous Decision Making for UAV Cooperative Pursuit-Evasion Game with Reinforcement Learning [50.33447711072726]
本稿では,マルチロールUAV協調追従ゲームにおける意思決定のための深層強化学習モデルを提案する。
提案手法は,追従回避ゲームシナリオにおけるUAVの自律的意思決定を可能にする。
論文 参考訳(メタデータ) (2024-11-05T10:45:30Z) - Tiny Multi-Agent DRL for Twins Migration in UAV Metaverses: A Multi-Leader Multi-Follower Stackelberg Game Approach [57.15309977293297]
無人航空機(UAV)とメタバースの相乗効果は、UAVメタバースと呼ばれる新しいパラダイムを生み出している。
本稿では,UAVメタバースにおける効率的なUTマイグレーションのためのプルーニング技術に基づく,機械学習に基づく小さなゲームフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-18T02:14:13Z) - UAV Obstacle Avoidance by Human-in-the-Loop Reinforcement in Arbitrary
3D Environment [17.531224704021273]
本稿では, 深部強化学習に基づく無人航空機(UAV)の連続制御に着目した。
本稿では,UAVが飛行中の障害物を自動的に回避できる深層強化学習(DRL)法を提案する。
論文 参考訳(メタデータ) (2023-04-07T01:44:05Z) - Solving reward-collecting problems with UAVs: a comparison of online
optimization and Q-learning [2.4251007104039006]
与えられたスタートからゴールまでの短い経路を識別し、すべての報酬を集め、グリッド上でランダムに動く敵を避けるという課題について検討する。
本稿では,Deep Q-Learningモデル,$varepsilon$-greedyタブ状Q-Learningモデル,オンライン最適化フレームワークの3つの方法の比較を行った。
我々の実験は、ランダムな逆数を持つ単純なグリッドワールド環境を用いて設計され、これらの手法がどのように機能するかを示し、性能、精度、計算時間の観点から比較する。
論文 参考訳(メタデータ) (2021-11-30T22:27:24Z) - Advanced Algorithms of Collision Free Navigation and Flocking for
Autonomous UAVs [0.0]
本報告は,マルチUAVシステムの自律走行及び運動調整のためのUAV制御の最先端化に寄与する。
本報告の前半は単UAVシステムを扱うもので, 未知・動的環境における3次元(3次元)衝突フリーナビゲーションの複雑な問題に対処する。
本報告では, マルチUAVシステムの安全ナビゲーションについて述べるとともに, フラッキングと3次元領域カバレッジのための多UAVシステムの分散動作調整手法を開発した。
論文 参考訳(メタデータ) (2021-10-30T03:51:40Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - 3D UAV Trajectory and Data Collection Optimisation via Deep
Reinforcement Learning [75.78929539923749]
無人航空機(UAV)は現在、無線通信におけるネットワーク性能とカバレッジを高めるために配備され始めている。
UAV支援モノのインターネット(IoT)のための最適な資源配分方式を得ることは困難である
本稿では,UAVの最も短い飛行経路に依存しつつ,IoTデバイスから収集したデータ量を最大化しながら,新しいUAV支援IoTシステムを設計する。
論文 参考訳(メタデータ) (2021-06-06T14:08:41Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。