論文の概要: Learning to Charge RF-Energy Harvesting Devices in WiFi Networks
- arxiv url: http://arxiv.org/abs/2005.12022v1
- Date: Mon, 25 May 2020 10:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 06:41:33.845491
- Title: Learning to Charge RF-Energy Harvesting Devices in WiFi Networks
- Title(参考訳): WiFiネットワークにおけるRFエネルギーハーベスティングデバイスを充電する学習
- Authors: Yizhou Luo and Kwan-Wu Chin
- Abstract要約: 我々は,APが送電電力制御により収穫エネルギーを管理できる2つのソリューションを提案する。
第1のソリューションはディープQネットワーク(DQN)を使用し、第2のソリューションはモデル予測制御(MPC)を使用してAPの送信電力を制御する。
我々のDQNおよびMPCソリューションは、競合するアルゴリズムと比較してエネルギー効率とユーザの満足度を16%から35%、10%から42%改善することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider a solar-powered Access Point (AP) that is tasked
with supporting both non-energy harvesting or legacy data users such as
laptops, and devices with Radio Frequency (RF)-energy harvesting and sensing
capabilities. We propose two solutions that enable the AP to manage its
harvested energy via transmit power control and also ensure devices perform
sensing tasks frequently. Advantageously, our solutions are suitable for
current wireless networks and do not require perfect channel gain information
or non-causal energy arrival at devices. The first solution uses a deep
Q-network (DQN) whilst the second solution uses Model Predictive Control (MPC)
to control the AP's transmit power. Our results show that our DQN and MPC
solutions improve energy efficiency and user satisfaction by respectively 16%
to 35%, and 10% to 42% as compared to competing algorithms.
- Abstract(参考訳): 本稿では,非エネルギーの収穫やラップトップなどのレガシなデータユーザ,無線周波数(RF)の収穫・感知機能を備えたデバイスをサポートするための太陽エネルギーアクセスポイント(AP)について考察する。
我々は、APが送電電力制御により収穫エネルギーを管理できるようにし、デバイスが頻繁に検知タスクを実行することを保証できる2つのソリューションを提案する。
有利なことに、我々のソリューションは現在のワイヤレスネットワークに適しており、完璧なチャネル利得情報やデバイスへの非causal energyの到着を必要としない。
第1のソリューションはディープQネットワーク(DQN)を使用し、第2のソリューションはモデル予測制御(MPC)を使用してAPの送信電力を制御する。
我々のDQNおよびMPCソリューションは, 競合アルゴリズムと比較してエネルギー効率とユーザ満足度をそれぞれ16%から35%, 10%から42%向上することを示した。
関連論文リスト
- Towards Battery-Free Wireless Sensing via Radio-Frequency Energy Harvesting [11.511759874194706]
本稿では,無線周波数(RF)エネルギー収穫に基づくエネルギー効率の高いワイヤレスセンシングソリューションREHSenseを提案する。
電力を消費するWi-Fi受信機に頼る代わりに、REHSenseはRFエネルギーをセンサーとして利用する。
我々は,REHSenseが従来のWi-Fiベースのソリューションと同等の精度を達成でき,異なるセンシング環境に適応できることを示す。
論文 参考訳(メタデータ) (2024-08-26T02:01:39Z) - Monitoring Efficiency of IoT Wireless Charging [0.39373541926236766]
本稿では,実際の受信エネルギーを予測するためのエネルギー推定フレームワークを提案する。
我々のフレームワークは、受信したエネルギーを推定するために、XGBoostとNeural Networkという2つの機械学習アルゴリズムを使用している。
論文 参考訳(メタデータ) (2023-03-10T00:15:08Z) - Deep Reinforcement Learning for Power Control in Next-Generation WiFi
Network Systems [1.405141917351931]
無線通信における電力制御のための深層強化学習(DRL)。
無線ネットワークでは、各移動ノードはリンク品質と信号強度を測定し、送信電力を制御する。
DRLはARMプロセッサとWiFiトランシーバを802.11nで組み合わせた各ノードの組み込みプラットフォーム向けに実装されている。
論文 参考訳(メタデータ) (2022-11-02T13:32:03Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - RIS-assisted UAV Communications for IoT with Wireless Power Transfer
Using Deep Reinforcement Learning [75.677197535939]
無人航空機(UAV)通信をサポートするIoTデバイスのための同時無線電力伝送と情報伝送方式を提案する。
第1フェーズでは、IoTデバイスが無線電力転送を通じてUAVからエネルギーを回収し、第2フェーズでは、UAVが情報伝送を通じてIoTデバイスからデータを収集する。
マルコフ決定過程を定式化し、ネットワーク総和率を最大化する最適化問題を解くために、2つの深い強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-05T23:55:44Z) - Cognitive Radio Network Throughput Maximization with Deep Reinforcement
Learning [58.44609538048923]
RF-CRN(Radio Frequency powered Cognitive Radio Networks)は、IoT(Internet of Things)などの最新のネットワークの目と耳である可能性が高い。
自律的と考えるには、RF駆動のネットワークエンティティは、ネットワーク環境の不確実性の下でネットワークスループットを最大化するために、ローカルで決定する必要がある。
本稿では,この欠点を克服し,無線ゲートウェイがネットワークスループットを最大化するための最適なポリシーを導出できるように,深層強化学習を提案する。
論文 参考訳(メタデータ) (2020-07-07T01:49:07Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z) - Wireless Power Control via Counterfactual Optimization of Graph Neural
Networks [124.89036526192268]
本稿では,無線ネットワークにおけるダウンリンク電力制御の問題点について考察する。
コンカレントトランスミッション間の干渉を軽減するために,ネットワークトポロジを活用してグラフニューラルネットワークアーキテクチャを構築する。
次に、教師なし原始対実対実最適化手法を用いて最適電力配分決定を学習する。
論文 参考訳(メタデータ) (2020-02-17T07:54:39Z) - Constrained Deep Reinforcement Learning for Energy Sustainable Multi-UAV
based Random Access IoT Networks with NOMA [20.160827428161898]
太陽エネルギーの無人航空機(UAV)がIoTデバイスからリモートサーバにデータを中継する無線IoTネットワークの大規模チャネルアクセスを改善するために,非直交多重アクセス技術を適用した。
IoTデバイスは、アダプティブ$p$パーセンスタントスロット付きAlohaプロトコルを使用して共有無線チャネルにアクセスし、ソーラーパワーのUAVは、SICを採用して、IoTデバイスから受信した複数のデータをデコードしてアクセス効率を向上させる。
論文 参考訳(メタデータ) (2020-01-31T22:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。