論文の概要: Density-Aware Reinforcement Learning to Optimise Energy Efficiency in
UAV-Assisted Networks
- arxiv url: http://arxiv.org/abs/2306.08785v1
- Date: Wed, 14 Jun 2023 23:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 17:01:57.300562
- Title: Density-Aware Reinforcement Learning to Optimise Energy Efficiency in
UAV-Assisted Networks
- Title(参考訳): UAV支援ネットワークにおけるエネルギー効率最適化のための密度認識強化学習
- Authors: Babatunji Omoniwa, Boris Galkin, Ivana Dusparic
- Abstract要約: 本稿では,DACEMAD-DDQN(Double Deep Q-network)アプローチを提案する。
その結果,65%~85%のエネルギー効率(EE)において,最先端のMARLアプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 2.6985600125290907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned aerial vehicles (UAVs) serving as aerial base stations can be
deployed to provide wireless connectivity to mobile users, such as vehicles.
However, the density of vehicles on roads often varies spatially and temporally
primarily due to mobility and traffic situations in a geographical area, making
it difficult to provide ubiquitous service. Moreover, as energy-constrained
UAVs hover in the sky while serving mobile users, they may be faced with
interference from nearby UAV cells or other access points sharing the same
frequency band, thereby impacting the system's energy efficiency (EE). Recent
multi-agent reinforcement learning (MARL) approaches applied to optimise the
users' coverage worked well in reasonably even densities but might not perform
as well in uneven users' distribution, i.e., in urban road networks with uneven
concentration of vehicles. In this work, we propose a density-aware
communication-enabled multi-agent decentralised double deep Q-network
(DACEMAD-DDQN) approach that maximises the total system's EE by jointly
optimising the trajectory of each UAV, the number of connected users, and the
UAVs' energy consumption while keeping track of dense and uneven users'
distribution. Our result outperforms state-of-the-art MARL approaches in terms
of EE by as much as 65% - 85%.
- Abstract(参考訳): 航空機基地局として機能する無人航空機(uavs)は、車両などのモバイルユーザへのワイヤレス接続を提供するために展開することができる。
しかし、道路上の車両の密度は、主に地理的地域における移動性や交通状況によって空間的・時間的に変化することが多く、ユビキタスなサービスの提供が困難である。
さらに、エネルギーに制約のあるUAVが移動中に空を飛ぶと、近くのUAVセルや同じ周波数帯域を共有する他のアクセスポイントからの干渉に直面し、システムのエネルギー効率(EE)に影響を与える可能性がある。
近年,マルチエージェント強化学習 (marl) が適用され,利用者のカバー範囲を最適化する手法が有効に機能しているが,不均一な利用者分布,すなわち不均一な車両濃度を有する都市道路網ではうまく機能しない可能性がある。
本研究では,各uavの軌道,接続ユーザ数,uavのエネルギー消費量を共同で最適化し,高密度かつ不均一なユーザの分布を追跡することで,システム全体のeeを最大化する密度対応型マルチエージェント分散型マルチディープq-network(dacemad-ddqn)手法を提案する。
私たちの結果は、最先端のMARLアプローチを65%から85%上回っています。
関連論文リスト
- UAV Based 5G Network: A Practical Survey Study [0.0]
無人航空機(UAV)は、新しい無線ネットワークの開発に大きく貢献することが期待されている。
UAVは5Gネットワークの低レイテンシと高速能力を利用して大量のデータをリアルタイムに転送することができる。
論文 参考訳(メタデータ) (2022-12-27T00:34:59Z) - Cooperative Multi-Agent Deep Reinforcement Learning for Reliable and
Energy-Efficient Mobile Access via Multi-UAV Control [13.692977942834627]
本稿では,複数無人航空機(UAV)のためのMADRLに基づく位置決めアルゴリズムについて述べる。
提案アルゴリズムの主な目的は、セルラー車間通信(C-V2X)のための信頼性の高い移動アクセスネットワークを確立することである。
論文 参考訳(メタデータ) (2022-10-03T14:01:52Z) - Optimising Energy Efficiency in UAV-Assisted Networks using Deep
Reinforcement Learning [2.6985600125290907]
無人航空機(UAV)のエネルギー効率(EE)最適化について検討する。
最近のマルチエージェント強化学習手法は2次元軌道設計を用いてシステムのEEを最適化する。
協調型マルチエージェント分散Double Deep Q-Network (MAD-DDQN) アプローチを提案する。
論文 参考訳(メタデータ) (2022-04-04T15:47:59Z) - Multi-Agent Deep Reinforcement Learning For Optimising Energy Efficiency
of Fixed-Wing UAV Cellular Access Points [3.502112118170715]
固定翼UAVセルアクセスポイントのエネルギー効率を最適化する多エージェント深部強化学習手法を提案する。
提案手法では,UAVの3次元軌道を一連の時間経過で調整できるDueling Deep Q-Network (DDQN) エージェントを備える。
論文 参考訳(メタデータ) (2021-11-03T14:49:17Z) - RIS-assisted UAV Communications for IoT with Wireless Power Transfer
Using Deep Reinforcement Learning [75.677197535939]
無人航空機(UAV)通信をサポートするIoTデバイスのための同時無線電力伝送と情報伝送方式を提案する。
第1フェーズでは、IoTデバイスが無線電力転送を通じてUAVからエネルギーを回収し、第2フェーズでは、UAVが情報伝送を通じてIoTデバイスからデータを収集する。
マルコフ決定過程を定式化し、ネットワーク総和率を最大化する最適化問題を解くために、2つの深い強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-05T23:55:44Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - 3D UAV Trajectory and Data Collection Optimisation via Deep
Reinforcement Learning [75.78929539923749]
無人航空機(UAV)は現在、無線通信におけるネットワーク性能とカバレッジを高めるために配備され始めている。
UAV支援モノのインターネット(IoT)のための最適な資源配分方式を得ることは困難である
本稿では,UAVの最も短い飛行経路に依存しつつ,IoTデバイスから収集したデータ量を最大化しながら,新しいUAV支援IoTシステムを設計する。
論文 参考訳(メタデータ) (2021-06-06T14:08:41Z) - Energy-aware placement optimization of UAV base stations via
decentralized multi-agent Q-learning [3.502112118170715]
航空基地局(UAV-BS)として機能する無人航空機は、ネットワーク需要の増加、既存のインフラの障害点、災害時の地上機器への無線接続を提供するために配備することができる。
バッテリー容量が限られていることを考えると、長時間のカバー作業でUAVのエネルギーを節約することは困難である。
本稿では,各UAV-BSに,地上機器との接続性を最大化し,エネルギー利用の向上を図る自律エージェントを組み込んだ分散Q-ラーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T22:49:42Z) - A Comprehensive Overview on 5G-and-Beyond Networks with UAVs: From
Communications to Sensing and Intelligence [152.89360859658296]
5Gネットワークは、拡張モバイルブロードバンド(eMBB)、超信頼性低遅延通信(URLLC)、大規模機械型通信(mMTC)の3つの典型的な利用シナリオをサポートする必要がある。
一方、UAVはコスト効率のよい航空プラットフォームとして利用でき、地上の利用者に高い高度と3D空間での操作性を利用して通信サービスを強化することができる。
一方,UAVと地上ユーザの両方に同時に通信サービスを提供することは,ユビキタスな3D信号網と強力な地上ネットワーク干渉の必要性から,新たな課題を提起する。
論文 参考訳(メタデータ) (2020-10-19T08:56:04Z) - Multi-Agent Deep Reinforcement Learning Based Trajectory Planning for
Multi-UAV Assisted Mobile Edge Computing [99.27205900403578]
無人航空機(UAV)支援移動エッジコンピューティング(MEC)フレームワークを提案する。
我々は,全ユーザ機器(UE)の地理的公正性と,各UAVのUE負荷の公平性を共同で最適化することを目的としている。
提案手法は他の従来のアルゴリズムよりもかなり性能が高いことを示す。
論文 参考訳(メタデータ) (2020-09-23T17:44:07Z) - Artificial Intelligence Aided Next-Generation Networks Relying on UAVs [140.42435857856455]
動的環境において,人工知能(AI)による無人航空機(UAV)による次世代ネットワーク支援が提案されている。
AI対応のUAV支援無線ネットワーク(UAWN)では、複数のUAVが航空基地局として使用され、ダイナミックな環境に迅速に適応することができる。
AIフレームワークの利点として、従来のUAWNのいくつかの課題が回避され、ネットワークパフォーマンスが向上し、信頼性が向上し、アジャイル適応性が向上する。
論文 参考訳(メタデータ) (2020-01-28T15:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。