論文の概要: Performance Optimization of Energy-Harvesting Underlay Cognitive Radio Networks Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2505.14581v1
- Date: Tue, 20 May 2025 16:38:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.580654
- Title: Performance Optimization of Energy-Harvesting Underlay Cognitive Radio Networks Using Reinforcement Learning
- Title(参考訳): 強化学習を用いた省エネルギー下レー認知無線ネットワークの性能最適化
- Authors: Deemah H. Tashman, Soumaya Cherkaoui, Walaa Hamouda,
- Abstract要約: 認知無線ネットワークの性能を最大化するために、強化学習技術を用いる。
本研究のアプローチは, ベースライン戦略より優れ, 収束する。
- 参考スコア(独自算出の注目度): 16.57893415196489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, a reinforcement learning technique is employed to maximize the performance of a cognitive radio network (CRN). In the presence of primary users (PUs), it is presumed that two secondary users (SUs) access the licensed band within underlay mode. In addition, the SU transmitter is assumed to be an energy-constrained device that requires harvesting energy in order to transmit signals to their intended destination. Therefore, we propose that there are two main sources of energy; the interference of PUs' transmissions and ambient radio frequency (RF) sources. The SU will select whether to gather energy from PUs or only from ambient sources based on a predetermined threshold. The process of energy harvesting from the PUs' messages is accomplished via the time switching approach. In addition, based on a deep Q-network (DQN) approach, the SU transmitter determines whether to collect energy or transmit messages during each time slot as well as selects the suitable transmission power in order to maximize its average data rate. Our approach outperforms a baseline strategy and converges, as shown by our findings.
- Abstract(参考訳): 本稿では,認知無線ネットワーク(CRN)の性能を最大化するために,強化学習手法を用いる。
プライマリユーザ(PU)の存在下では、2つのセカンダリユーザ(SU)がアンダーレイモードでライセンスバンドにアクセスしていると推定される。
また、SU送信機は、目的の目的地に信号を送信するために、収穫エネルギーを必要とするエネルギー制約装置であると仮定される。
そこで本研究では,PUの伝送と周囲無線周波数(RF)の干渉の2つの主なエネルギー源を提案する。
SUは、所定のしきい値に基づいてPUからエネルギーを収集するか、または周囲のソースからのみ選択する。
PUのメッセージからエネルギーを回収する過程は、時間切替アプローチによって達成される。
さらに、DQN(Deep Q-network)アプローチに基づいて、SU送信機は、各タイムスロット中にエネルギーを収集するか、メッセージを送信すべきかを判定し、平均データレートを最大化するために適切な送信電力を選択する。
本研究のアプローチは, ベースライン戦略より優れ, 収束する。
関連論文リスト
- Neuromorphic Split Computing with Wake-Up Radios: Architecture and Design via Digital Twinning [97.99077847606624]
本研究は,遠隔・無線接続型NPUからなる分割計算機システムに,覚醒無線機構を組み込んだ新しいアーキテクチャを提案する。
覚醒無線に基づくニューロモルフィックスプリットコンピューティングシステムの設計における重要な課題は、検知、覚醒信号検出、意思決定のためのしきい値の選択である。
論文 参考訳(メタデータ) (2024-04-02T10:19:04Z) - Sum-Rate Maximization of RSMA-based Aerial Communications with Energy
Harvesting: A Reinforcement Learning Approach [5.35414932422173]
自給自足の航空基地局は、収穫されたエネルギーを利用して複数の利用者にサービスを提供する。
長期的観点からの総和率の最大化を考慮し、深層強化学習(DRL)アプローチを用いる。
提案手法は,平均和レート性能において,いくつかの基本手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T15:38:22Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Optimal Power Allocation for Rate Splitting Communications with Deep
Reinforcement Learning [61.91604046990993]
このレターでは、レート分割多重アクセスネットワークにおいて、ユーザの電力割り当てを最適化するための新しいフレームワークを紹介します。
ネットワークでは、ユーザのために意図されたメッセージは、単一の共通部分と個々のプライベート部分に分割される。
論文 参考訳(メタデータ) (2021-07-01T06:32:49Z) - Wirelessly Powered Federated Edge Learning: Optimal Tradeoffs Between
Convergence and Power Transfer [42.30741737568212]
無線電力伝送(WPT)を用いた電力機器の解法を提案する。
本研究の目的は、無線で駆動するFEEL(WP-FEEL)システムの導入に関するガイドラインの導出である。
その結果、WPTプロビジョニングに関する有用なガイドラインを提供し、学習パフォーマンスの保証を提供します。
論文 参考訳(メタデータ) (2021-02-24T15:47:34Z) - Cognitive Radio Network Throughput Maximization with Deep Reinforcement
Learning [58.44609538048923]
RF-CRN(Radio Frequency powered Cognitive Radio Networks)は、IoT(Internet of Things)などの最新のネットワークの目と耳である可能性が高い。
自律的と考えるには、RF駆動のネットワークエンティティは、ネットワーク環境の不確実性の下でネットワークスループットを最大化するために、ローカルで決定する必要がある。
本稿では,この欠点を克服し,無線ゲートウェイがネットワークスループットを最大化するための最適なポリシーを導出できるように,深層強化学習を提案する。
論文 参考訳(メタデータ) (2020-07-07T01:49:07Z) - Learning to Charge RF-Energy Harvesting Devices in WiFi Networks [0.0]
我々は,APが送電電力制御により収穫エネルギーを管理できる2つのソリューションを提案する。
第1のソリューションはディープQネットワーク(DQN)を使用し、第2のソリューションはモデル予測制御(MPC)を使用してAPの送信電力を制御する。
我々のDQNおよびMPCソリューションは、競合するアルゴリズムと比較してエネルギー効率とユーザの満足度を16%から35%、10%から42%改善することを示した。
論文 参考訳(メタデータ) (2020-05-25T10:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。