論文の概要: Multi-Agent Deep Reinforcement Learning For Optimising Energy Efficiency
of Fixed-Wing UAV Cellular Access Points
- arxiv url: http://arxiv.org/abs/2111.02258v1
- Date: Wed, 3 Nov 2021 14:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 14:16:48.407916
- Title: Multi-Agent Deep Reinforcement Learning For Optimising Energy Efficiency
of Fixed-Wing UAV Cellular Access Points
- Title(参考訳): 固定翼uavセルアクセスポイントのエネルギー効率を最適化するマルチエージェント深層強化学習
- Authors: Boris Galkin, Babatunji Omoniwa, Ivana Dusparic
- Abstract要約: 固定翼UAVセルアクセスポイントのエネルギー効率を最適化する多エージェント深部強化学習手法を提案する。
提案手法では,UAVの3次元軌道を一連の時間経過で調整できるDueling Deep Q-Network (DDQN) エージェントを備える。
- 参考スコア(独自算出の注目度): 3.502112118170715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned Aerial Vehicles (UAVs) promise to become an intrinsic part of next
generation communications, as they can be deployed to provide wireless
connectivity to ground users to supplement existing terrestrial networks. The
majority of the existing research into the use of UAV access points for
cellular coverage considers rotary-wing UAV designs (i.e. quadcopters).
However, we expect fixed-wing UAVs to be more appropriate for connectivity
purposes in scenarios where long flight times are necessary (such as for rural
coverage), as fixed-wing UAVs rely on a more energy-efficient form of flight
when compared to the rotary-wing design. As fixed-wing UAVs are typically
incapable of hovering in place, their deployment optimisation involves
optimising their individual flight trajectories in a way that allows them to
deliver high quality service to the ground users in an energy-efficient manner.
In this paper, we propose a multi-agent deep reinforcement learning approach to
optimise the energy efficiency of fixed-wing UAV cellular access points while
still allowing them to deliver high-quality service to users on the ground. In
our decentralized approach, each UAV is equipped with a Dueling Deep Q-Network
(DDQN) agent which can adjust the 3D trajectory of the UAV over a series of
timesteps. By coordinating with their neighbours, the UAVs adjust their
individual flight trajectories in a manner that optimises the total system
energy efficiency. We benchmark the performance of our approach against a
series of heuristic trajectory planning strategies, and demonstrate that our
method can improve the system energy efficiency by as much as 70%.
- Abstract(参考訳): 無人航空機(uavs)は、既存の地上ネットワークを補完するために地上ユーザーにワイヤレス接続を提供するため、次世代通信の本質的な部分になることを約束している。
UAVアクセスポイントの使用に関する既存の研究の大部分は、回転翼型UAV設計(すなわちクワッドコプター)を考慮に入れている。
しかし、固定翼uavは、回転翼設計に比べてエネルギー効率の良い飛行形態に依存しているため、長い飛行時間が必要なシナリオ(農村圏など)において、接続性のためにより適していると期待する。
固定翼UAVは、通常はホバリングができないため、その展開最適化は、地上のユーザーに対してエネルギー効率のよい高品質なサービスを提供できるように、個々の飛行軌跡を最適化する。
本稿では,固定翼uavセルラーアクセスポイントのエネルギー効率を最適化し,地上ユーザに対して高品質なサービスを提供するためのマルチエージェント深層強化学習手法を提案する。
我々の分散化アプローチでは、各UAVは、一連のタイムステップでUAVの3次元軌道を調整できるDueling Deep Q-Network (DDQN)エージェントを備えている。
近隣諸国と協調することで、UAVは個々の飛行軌道を調整し、システム全体のエネルギー効率を最適化する。
我々は,一連のヒューリスティックな軌道計画戦略に対してアプローチの性能をベンチマークし,我々の手法がシステムエネルギー効率を最大70%向上できることを実証した。
関連論文リスト
- Multi-UAV Multi-RIS QoS-Aware Aerial Communication Systems using DRL and PSO [34.951735976771765]
無人航空機(UAV)は、地上の利用者に無線サービスを提供する学術・産業の研究者の注目を集めている。
UAVの限られたリソースは、そのようなアプリケーションにUAVを採用する上での課題を引き起こす可能性がある。
システムモデルでは,地域をナビゲートするUAVスワムを考慮し,RISをサポートした地上ユーザへの無線通信により,UAVのカバレッジを向上させる。
論文 参考訳(メタデータ) (2024-06-16T17:53:56Z) - UAV-enabled Collaborative Beamforming via Multi-Agent Deep Reinforcement Learning [79.16150966434299]
本稿では,UAVを用いた協調ビームフォーミング多目的最適化問題 (UCBMOP) を定式化し,UAVの伝送速度を最大化し,全UAVのエネルギー消費を最小化する。
ヘテロジニアス・エージェント・信頼領域ポリシー最適化(HATRPO)を基本フレームワークとし,改良されたHATRPOアルゴリズム,すなわちHATRPO-UCBを提案する。
論文 参考訳(メタデータ) (2024-04-11T03:19:22Z) - UAV Swarm-enabled Collaborative Secure Relay Communications with
Time-domain Colluding Eavesdropper [115.56455278813756]
航空中継機としての無人航空機(UAV)は、インターネットモノ(IoT)ネットワークの補助として事実上魅力的である。
本研究では,UAV基地局と端末端末装置間のセキュアな通信を支援するために,UAVを活用することを目的とする。
論文 参考訳(メタデータ) (2023-10-03T11:47:01Z) - Optimising Energy Efficiency in UAV-Assisted Networks using Deep
Reinforcement Learning [2.6985600125290907]
無人航空機(UAV)のエネルギー効率(EE)最適化について検討する。
最近のマルチエージェント強化学習手法は2次元軌道設計を用いてシステムのEEを最適化する。
協調型マルチエージェント分散Double Deep Q-Network (MAD-DDQN) アプローチを提案する。
論文 参考訳(メタデータ) (2022-04-04T15:47:59Z) - RIS-assisted UAV Communications for IoT with Wireless Power Transfer
Using Deep Reinforcement Learning [75.677197535939]
無人航空機(UAV)通信をサポートするIoTデバイスのための同時無線電力伝送と情報伝送方式を提案する。
第1フェーズでは、IoTデバイスが無線電力転送を通じてUAVからエネルギーを回収し、第2フェーズでは、UAVが情報伝送を通じてIoTデバイスからデータを収集する。
マルコフ決定過程を定式化し、ネットワーク総和率を最大化する最適化問題を解くために、2つの深い強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-05T23:55:44Z) - 3D UAV Trajectory and Data Collection Optimisation via Deep
Reinforcement Learning [75.78929539923749]
無人航空機(UAV)は現在、無線通信におけるネットワーク性能とカバレッジを高めるために配備され始めている。
UAV支援モノのインターネット(IoT)のための最適な資源配分方式を得ることは困難である
本稿では,UAVの最も短い飛行経路に依存しつつ,IoTデバイスから収集したデータ量を最大化しながら,新しいUAV支援IoTシステムを設計する。
論文 参考訳(メタデータ) (2021-06-06T14:08:41Z) - Energy-aware placement optimization of UAV base stations via
decentralized multi-agent Q-learning [3.502112118170715]
航空基地局(UAV-BS)として機能する無人航空機は、ネットワーク需要の増加、既存のインフラの障害点、災害時の地上機器への無線接続を提供するために配備することができる。
バッテリー容量が限られていることを考えると、長時間のカバー作業でUAVのエネルギーを節約することは困難である。
本稿では,各UAV-BSに,地上機器との接続性を最大化し,エネルギー利用の向上を図る自律エージェントを組み込んだ分散Q-ラーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T22:49:42Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。