論文の概要: Fairness Based Energy-Efficient 3D Path Planning of a Portable Access
Point: A Deep Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2208.05265v1
- Date: Wed, 10 Aug 2022 10:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:35:46.240249
- Title: Fairness Based Energy-Efficient 3D Path Planning of a Portable Access
Point: A Deep Reinforcement Learning Approach
- Title(参考訳): ポータブルアクセスポイントの公平性に基づくエネルギー効率3次元経路計画:深層強化学習アプローチ
- Authors: Nithin Babu, Igor Donevski, Alvaro Valcarce, Petar Popovski, Jimmy
Jessen Nielsen, and Constantinos B. Papadias
- Abstract要約: 無人航空機(UAV)搭載ポータブルアクセスポイント(PAP)の3次元軌跡を最適化する。
我々は,2つの遅延深い決定論的政策勾配(TD3)フレームワークを用いて,公正エネルギー効率(FEE)を最大化する政策を学習する。
第1(オフライン)アプローチは、トレーニングフェーズを通してGNを同じ位置に維持し、第2のアプローチは、各エピソードの後にGNの任意の配列に学習ポリシーを一般化する。
- 参考スコア(独自算出の注目度): 28.242485605366028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we optimize the 3D trajectory of an unmanned aerial vehicle
(UAV)-based portable access point (PAP) that provides wireless services to a
set of ground nodes (GNs). Moreover, as per the Peukert effect, we consider
pragmatic non-linear battery discharge for the battery of the UAV. Thus, we
formulate the problem in a novel manner that represents the maximization of a
fairness-based energy efficiency metric and is named fair energy efficiency
(FEE). The FEE metric defines a system that lays importance on both the
per-user service fairness and the energy efficiency of the PAP. The formulated
problem takes the form of a non-convex problem with non-tractable constraints.
To obtain a solution, we represent the problem as a Markov Decision Process
(MDP) with continuous state and action spaces. Considering the complexity of
the solution space, we use the twin delayed deep deterministic policy gradient
(TD3) actor-critic deep reinforcement learning (DRL) framework to learn a
policy that maximizes the FEE of the system. We perform two types of RL
training to exhibit the effectiveness of our approach: the first (offline)
approach keeps the positions of the GNs the same throughout the training phase;
the second approach generalizes the learned policy to any arrangement of GNs by
changing the positions of GNs after each training episode. Numerical
evaluations show that neglecting the Peukert effect overestimates the air-time
of the PAP and can be addressed by optimally selecting the PAP's flying speed.
Moreover, the user fairness, energy efficiency, and hence the FEE value of the
system can be improved by efficiently moving the PAP above the GNs. As such, we
notice massive FEE improvements over baseline scenarios of up to 88.31%,
272.34%, and 318.13% for suburban, urban, and dense urban environments,
respectively.
- Abstract(参考訳): 本研究では,無人航空機(UAV)をベースとした携帯型アクセスポイント(PAP)の3次元軌道を最適化し,地上ノード(GN)に無線サービスを提供する。
さらに,peukert効果により,uavのバッテリに対する実用的非線形バッテリ放電について検討する。
したがって、公平性に基づくエネルギー効率測定の最大化を表す新しい方法でこの問題を定式化し、公正エネルギー効率(FEE)と命名する。
FEEメトリックは、ユーザ毎のサービスフェアネスとPAPのエネルギー効率の両方に重点を置くシステムを定義する。
定式化問題は、非拘束性制約を持つ非凸問題の形を取る。
解を得るためには、マルコフ決定過程(MDP)として、連続状態と作用空間を持つ問題を表す。
解空間の複雑さを考慮すると、システムのFEEを最大化する政策を学ぶために、ツイン遅延Deep Deterministic Policy gradient (TD3) のアクタークリティカルなDeep reinforcement Learning (DRL) フレームワークを使用する。
第1の(オフライン)アプローチは、学習段階を通してgnsの位置を同一に保つこと、第2のアプローチは、各訓練エピソードの後にgnsの位置を変更することにより、学習方針をngsの任意の配置に一般化することである。
数値評価の結果,peukert効果の無視はpapの気流を過大評価し,papの飛行速度を最適に選択することで対処できることがわかった。
さらに、ユーザフェアネス、エネルギ効率、したがってシステムのFEE値を、GNの上のPAPを効率よく移動させることで改善することができる。
その結果,郊外,都市,密集した都市環境において,ベースラインシナリオの88.31%,272.34%,および318.13%の大幅なFEE改善が見られた。
関連論文リスト
- Meta Reinforcement Learning for Strategic IoT Deployments Coverage in
Disaster-Response UAV Swarms [5.57865728456594]
無人航空機(UAV)は、重要な緊急用途に使用される可能性があるとして、学術や産業の研究者の注目を集めている。
これらのアプリケーションには、地上のユーザーに無線サービスを提供し、災害の影響を受けた地域からデータを収集する機能が含まれる。
UAVの限られた資源、エネルギー予算、厳格なミッション完了時間は、これらの用途にUAVを採用する際の課題を提起している。
論文 参考訳(メタデータ) (2024-01-20T05:05:39Z) - A Safe Genetic Algorithm Approach for Energy Efficient Federated
Learning in Wireless Communication Networks [53.561797148529664]
フェデレートラーニング(FL)は、従来の集中型アプローチとは対照的に、デバイスが協調的にモデルトレーニングを行う分散技術として登場した。
FLの既存の取り組みにもかかわらず、その環境影響は、無線ネットワークへの適用性に関するいくつかの重要な課題が特定されているため、まだ調査中である。
現在の研究は遺伝的アルゴリズム(GA)アプローチを提案しており、FLプロセス全体のエネルギー消費と不要な資源利用の両方を最小化することを目標としている。
論文 参考訳(メタデータ) (2023-06-25T13:10:38Z) - Integrated Sensing, Computation, and Communication for UAV-assisted
Federated Edge Learning [52.7230652428711]
フェデレーションエッジ学習(FEEL)は、エッジデバイスとサーバ間の定期的な通信を通じて、プライバシ保護モデルトレーニングを可能にする。
無人航空機(UAV)搭載エッジデバイスは、効率的なデータ収集における柔軟性と移動性のため、FEELにとって特に有利である。
論文 参考訳(メタデータ) (2023-06-05T16:01:33Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Efficient Representation for Electric Vehicle Charging Station
Operations using Reinforcement Learning [5.815007821143811]
我々は、EV充電の緊急時、すなわち遅延値に基づくアグリゲーションスキームを開発する。
EVCSの総充電パワーのみを考慮するために、最低遅延第一規則(LLF)が採用されている。
また,同じ最適政策を達成するための等価な状態アグリゲーションを提案する。
論文 参考訳(メタデータ) (2021-08-07T00:34:48Z) - Learning based E2E Energy Efficient in Joint Radio and NFV Resource
Allocation for 5G and Beyond Networks [21.60295771932728]
無線部に電力とスペクトル資源を割り当てる最適化問題を定式化する。
コア部では、すべてのユーザの効率を確保するために、関数の連鎖、配置、スケジューリングを行う。
次に、最大エントロピーフレームワークに基づくソフトアクター・クリティカル・ディープラーニング(SAC-DRL)アルゴリズムを用いて、上記のMDPを解く。
論文 参考訳(メタデータ) (2021-07-13T11:19:48Z) - Enforcing Policy Feasibility Constraints through Differentiable
Projection for Energy Optimization [57.88118988775461]
本稿では,ニューラルポリシー内での凸操作制約を強制するために,PROF(Projected Feasibility)を提案する。
エネルギー効率の高い建築操作とインバータ制御の2つの応用についてPROFを実証する。
論文 参考訳(メタデータ) (2021-05-19T01:58:10Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。