論文の概要: Intelligent Resource Allocation in Dense LoRa Networks using Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2012.11867v1
- Date: Tue, 22 Dec 2020 07:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 00:17:26.565330
- Title: Intelligent Resource Allocation in Dense LoRa Networks using Deep
Reinforcement Learning
- Title(参考訳): 深層強化学習を用いた密集loraネットワークにおける知的資源配分
- Authors: Inaam Ilahi, Muhammad Usama, Muhammad Omer Farooq, Muhammad Umar
Janjua, and Junaid Qadir
- Abstract要約: LoRaDRLのマルチチャネル方式を提案する。
その結果,提案アルゴリズムは長距離広帯域ネットワーク (LoRaWAN) のパケット配信率 (PDR) を有意に改善するだけでなく,
また,LoRaDRLの出力により最先端技術の性能が向上し,PDRでは500%以上の改善が得られた。
- 参考スコア(独自算出の注目度): 5.035252201462008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The anticipated increase in the count of IoT devices in the coming years
motivates the development of efficient algorithms that can help in their
effective management while keeping the power consumption low. In this paper, we
propose LoRaDRL and provide a detailed performance evaluation. We propose a
multi-channel scheme for LoRaDRL. We perform extensive experiments, and our
results demonstrate that the proposed algorithm not only significantly improves
long-range wide area network (LoRaWAN)'s packet delivery ratio (PDR) but is
also able to support mobile end-devices (EDs) while ensuring lower power
consumption. Most previous works focus on proposing different MAC protocols for
improving the network capacity. We show that through the use of LoRaDRL, we can
achieve the same efficiency with ALOHA while moving the complexity from EDs to
the gateway thus making the EDs simpler and cheaper. Furthermore, we test the
performance of LoRaDRL under large-scale frequency jamming attacks and show its
adaptiveness to the changes in the environment. We show that LoRaDRL's output
improves the performance of state-of-the-art techniques resulting in some cases
an improvement of more than 500% in terms of PDR compared to learning-based
techniques.
- Abstract(参考訳): 今後数年間で期待されるIoTデバイスの数の増加は、消費電力を低く保ちながら、効率的な管理を支援する効率的なアルゴリズムの開発を動機付けている。
本稿では,loradrlを提案し,詳細な性能評価を行う。
LoRaDRLのマルチチャネル方式を提案する。
その結果,提案アルゴリズムは長距離広帯域ネットワーク(LoRaWAN)のパケット配信率(PDR)を大幅に向上するだけでなく,移動端末(ED)を低消費電力でサポートできることを示した。
これまでのほとんどの研究は、ネットワーク容量を改善するために異なるMACプロトコルを提案することに重点を置いていた。
また,LoRaDRLを用いることで,複雑度をゲートウェイに移行した上で,ALOHAと同等の効率を実現できることを示す。
さらに,大規模な周波数ジャミング攻撃によるLoRaDRLの性能試験を行い,環境変化に対する適応性を示す。
また,LoRaDRLの出力により最先端技術の性能が向上し,学習ベース技術と比較してPDRの500%以上の改善が見られた。
関連論文リスト
- Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - How Does Forecasting Affect the Convergence of DRL Techniques in O-RAN
Slicing? [20.344810727033327]
本稿では,DRLの収束性を高めるため,新しい予測支援型DRL手法とそのO-RAN実運用ワークフローを提案する。
提案手法では, 平均初期報酬値, 収束率, 収束シナリオ数において最大22.8%, 86.3%, 300%の改善が見られた。
論文 参考訳(メタデータ) (2023-09-01T14:30:04Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - IMDeception: Grouped Information Distilling Super-Resolution Network [7.6146285961466]
SISR(Single-Image-Super-Resolution)は、ディープラーニング手法の最近の進歩の恩恵を受けている古典的なコンピュータビジョン問題である。
本稿では,機能集約のためのIICモジュールの代替として,GPRM(Global Progressive Refinement Module)を提案する。
また,1秒あたりのパラメータ数や浮動小数点演算量(FLOPS)をさらに削減するために,GIDB(Grouped Information Distilling Blocks)を提案する。
実験の結果,提案したネットワークは,パラメータ数やFLOPSが限られているにもかかわらず,最先端モデルと同等に動作していることがわかった。
論文 参考訳(メタデータ) (2022-04-25T06:43:45Z) - Deep Reinforcement Learning for Optimal Power Flow with Renewables Using
Spatial-Temporal Graph Information [11.76597661670075]
再生可能エネルギー資源(RER)は、特に大規模配電ネットワーク(DN)において、現代の電力システムに統合されつつある。
本稿では,DRL を用いた DN の最適動作点を動的に探索する手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T03:58:13Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Optimizing the Long-Term Average Reward for Continuing MDPs: A Technical
Report [117.23323653198297]
ユーザが経験した情報の鮮度と、センサが消費するエネルギーのバランスをとっています。
対応するステータス更新手順を継続的なマルコフ決定プロセス(MDP)としてキャストします。
次元の呪いを回避するため,我々は深層強化学習(DRL)アルゴリズムを設計するための方法論を確立した。
論文 参考訳(メタデータ) (2021-04-13T12:29:55Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。