論文の概要: Reinforcement Learning-based Joint Path and Energy Optimization of
Cellular-Connected Unmanned Aerial Vehicles
- arxiv url: http://arxiv.org/abs/2011.13744v1
- Date: Fri, 27 Nov 2020 14:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:48:04.041874
- Title: Reinforcement Learning-based Joint Path and Energy Optimization of
Cellular-Connected Unmanned Aerial Vehicles
- Title(参考訳): 強化学習に基づく無人航空機の協調経路とエネルギー最適化
- Authors: Arash Hooshmand
- Abstract要約: バッテリーの充電を考慮し、長いミッションでUAVの問題を解決するため、我々は典型的な短距離経路プランナーを階層的に拡張するために強化学習(RL)を用いてきた。
この問題は、広範囲を飛行するUAVに対してシミュレートされ、Qラーニングアルゴリズムにより、UAVが最適な経路と充電ポリシーを見つけることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unmanned Aerial Vehicles (UAVs) have attracted considerable research interest
recently. Especially when it comes to the realm of Internet of Things, the UAVs
with Internet connectivity are one of the main demands. Furthermore, the energy
constraint i.e. battery limit is a bottle-neck of the UAVs that can limit their
applications. We try to address and solve the energy problem. Therefore, a path
planning method for a cellular-connected UAV is proposed that will enable the
UAV to plan its path in an area much larger than its battery range by getting
recharged in certain positions equipped with power stations (PSs). In addition
to the energy constraint, there are also no-fly zones; for example, due to Air
to Air (A2A) and Air to Ground (A2G) interference or for lack of necessary
connectivity that impose extra constraints in the trajectory optimization of
the UAV. No-fly zones determine the infeasible areas that should be avoided. We
have used a reinforcement learning (RL) hierarchically to extend typical
short-range path planners to consider battery recharge and solve the problem of
UAVs in long missions. The problem is simulated for the UAV that flies over a
large area, and Q-learning algorithm could enable the UAV to find the optimal
path and recharge policy.
- Abstract(参考訳): 無人航空機(UAV)は最近かなりの研究関心を集めている。
特にモノのインターネットの世界では、インターネット接続のUAVが大きな需要の1つだ。
さらに、エネルギー制約、すなわちバッテリー制限は、その用途を制限することができるuavのボトルネックである。
我々はエネルギー問題に対処し解決しようと試みる。
そこで, 電力ステーション (PS) を装備した特定の位置で充電することで, UAVがバッテリ範囲よりもはるかに広い範囲で経路を計画できる, セル接続型UAVの経路計画法を提案する。
例えば、エア・トゥ・エア(A2A)とエア・トゥ・グラウンド(A2G)の干渉や、UAVの軌道最適化に余分な制約を課す必要のない接続性のためである。
飛行禁止区域は避けるべき非実用領域を決定する。
バッテリーの充電を考慮し、長いミッションでUAVの問題を解決するため、我々は典型的な短距離経路プランナーを階層的に拡張するために強化学習(RL)を用いてきた。
この問題は、広範囲を飛行するUAVに対してシミュレートされ、Qラーニングアルゴリズムにより、UAVが最適な経路と充電ポリシーを見つけることができる。
関連論文リスト
- RL-Based Cargo-UAV Trajectory Planning and Cell Association for Minimum
Handoffs, Disconnectivity, and Energy Consumption [23.734853912297634]
無人航空機(UAV)は、ラストマイル貨物輸送のための有望な技術である。
既存の携帯電話ネットワークは、主に地上ユーザー向けに設計された。
本稿では, 共同貨物・UAV軌道計画とセルアソシエーションのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-05T04:06:09Z) - UAV Swarm-enabled Collaborative Secure Relay Communications with
Time-domain Colluding Eavesdropper [115.56455278813756]
航空中継機としての無人航空機(UAV)は、インターネットモノ(IoT)ネットワークの補助として事実上魅力的である。
本研究では,UAV基地局と端末端末装置間のセキュアな通信を支援するために,UAVを活用することを目的とする。
論文 参考訳(メタデータ) (2023-10-03T11:47:01Z) - Deep Reinforcement Learning for Online Routing of Unmanned Aerial
Vehicles with Wireless Power Transfer [9.296415450289706]
無人航空機(UAV)は、輸送、軍事任務、災害救助、通信など様々な用途において重要な役割を担っている。
本稿では,無線電力伝送によるUAVオンラインルーティング問題を解決するための深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T07:43:08Z) - Multi-Agent Deep Reinforcement Learning For Optimising Energy Efficiency
of Fixed-Wing UAV Cellular Access Points [3.502112118170715]
固定翼UAVセルアクセスポイントのエネルギー効率を最適化する多エージェント深部強化学習手法を提案する。
提案手法では,UAVの3次元軌道を一連の時間経過で調整できるDueling Deep Q-Network (DDQN) エージェントを備える。
論文 参考訳(メタデータ) (2021-11-03T14:49:17Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - 3D UAV Trajectory and Data Collection Optimisation via Deep
Reinforcement Learning [75.78929539923749]
無人航空機(UAV)は現在、無線通信におけるネットワーク性能とカバレッジを高めるために配備され始めている。
UAV支援モノのインターネット(IoT)のための最適な資源配分方式を得ることは困難である
本稿では,UAVの最も短い飛行経路に依存しつつ,IoTデバイスから収集したデータ量を最大化しながら,新しいUAV支援IoTシステムを設計する。
論文 参考訳(メタデータ) (2021-06-06T14:08:41Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - Federated Learning for Cellular-connected UAVs: Radio Mapping and Path
Planning [2.4366811507669124]
本稿では,UAVの走行時間を最小化し,確率的接続制約を満たすことを保証する。
UAVは異なるミッションを持ち、異なるエリアを飛行するため、収集されたデータはネットワークの接続に関するローカル情報を運ぶ。
最初のステップでは、UAVは環境の停止確率のグローバルモデルを構築します。
第2ステップでは、第1ステップで得られた大域的モデルと高速探索型ランダムツリー(RRT)を用いて、UAVの経路を最適化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-23T14:55:37Z) - Simultaneous Navigation and Radio Mapping for Cellular-Connected UAV
with Deep Reinforcement Learning [46.55077580093577]
空のUAVに対して、ユビキタスな3Dコミュニケーションを実現するには、新しい課題だ。
本稿では,UAVの制御可能な移動性を利用して航法・軌道を設計する新しい航法手法を提案する。
そこで我々は,UAVの信号計測を深部Qネットワークのトレーニングに用いるSNARM (Concurrent Navigation and Radio Mapping) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T08:16:14Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。