論文の概要: Optimizing Wireless Discontinuous Reception via MAC Signaling Learning
- arxiv url: http://arxiv.org/abs/2406.13834v1
- Date: Wed, 19 Jun 2024 20:55:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 18:15:51.707729
- Title: Optimizing Wireless Discontinuous Reception via MAC Signaling Learning
- Title(参考訳): MAC信号学習による無線不連続認識の最適化
- Authors: Adriano Pastore, Adrián Agustín de Dios, Álvaro Valcarce,
- Abstract要約: 本稿では,基地局 (BTS) からの不連続受容 (DRX) ポリシーを制御するための強化学習手法を提案する。
5G New Radioで指定された高速なLayer-2信号の送信を最適タイミングでタイミングで行う。
シミュレーションの結果,提案手法は遅延と省エネのトレードオフの改善を図っている。
- 参考スコア(独自算出の注目度): 3.4082496470541312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Reinforcement Learning (RL) approach to the problem of controlling the Discontinuous Reception (DRX) policy from a Base Transceiver Station (BTS) in a cellular network. We do so by means of optimally timing the transmission of fast Layer-2 signaling messages (a.k.a. Medium Access Layer (MAC) Control Elements (CEs) as specified in 5G New Radio). Unlike more conventional approaches to DRX optimization, which rely on fine-tuning the values of DRX timers, we assess the gains that can be obtained solely by means of this MAC CE signalling. For the simulation part, we concentrate on traffic types typically encountered in Extended Reality (XR) applications, where the need for battery drain minimization and overheating mitigation are particularly pressing. Both 3GPP 5G New Radio (5G NR) compliant and non-compliant ("beyond 5G") MAC CEs are considered. Our simulation results show that our proposed technique strikes an improved trade-off between latency and energy savings as compared to conventional timer-based approaches that are characteristic of most current implementations. Specifically, our RL-based policy can nearly halve the active time for a single User Equipment (UE) with respect to a na\"ive MAC CE transmission policy, and still achieve near 20% active time reduction for 9 simultaneously served UEs.
- Abstract(参考訳): 本稿では,基地局 (BTS) からの不連続受容 (DRX) ポリシーを制御するための強化学習 (Reinforcement Learning, RL) 手法を提案する。
我々は、高速なレイヤ2信号の送信を最適タイミングで行う(例えば、5Gニューラジオで規定されている中層アクセス層(MAC)制御要素(CE))。
DRXタイマーの値の微調整に依存する従来のDRX最適化手法とは異なり、このMAC CEシグナリングによってのみ得られる利得を評価する。
シミュレーション部分では,拡張現実感(XR)アプリケーションで典型的に発生するトラヒックタイプに着目し,バッテリドレインの最小化と過熱緩和が特に重要となる。
3GPP 5Gニューラジオ(5G NR)準拠と非準拠("Beyond 5G")MAC CEも考慮されている。
シミュレーションの結果,提案手法は従来のタイマーベース手法と比較して,レイテンシと省エネのトレードオフの改善を図っている。
具体的には、我々のRLベースのポリシーは、na\\ive MAC CE送信ポリシーに関して、1つのユーザ機器(UE)のアクティブな時間をほぼ半分にし、同時に9つのUEに対して20%近いアクティブな時間短縮を実現することができる。
関連論文リスト
- Dynamic Spectrum Access for Ambient Backscatter Communication-assisted D2D Systems with Quantum Reinforcement Learning [68.63990729719369]
無線スペクトルは乏しくなり、D2D通信のスペクトル効率は低い。
本稿では, 周囲RF信号の後方散乱を可能にするために, 環境後方散乱通信技術をD2Dデバイスに統合することを目的とする。
我々は、より少ないトレーニングパラメータでより高速な収束率を達成することができる新しい量子強化学習(RL)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-10-23T15:36:43Z) - OFDM-Standard Compatible SC-NOFS Waveforms for Low-Latency and Jitter-Tolerance Industrial IoT Communications [53.398544571833135]
この研究は、スペクトル的に効率的な不規則なSinc (irSinc) 整形法を提案し、1924年に従来のSincを再考した。
irSincは、誤差性能を犠牲にすることなくスペクトル効率が向上した信号を生成する。
我々の信号は、5G標準信号構成により、同じスペクトル帯域内で高速なデータ伝送を実現する。
論文 参考訳(メタデータ) (2024-06-07T09:20:30Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - Communication-Efficient Orchestrations for URLLC Service via
Hierarchical Reinforcement Learning [14.604814002402588]
制御ループの時間スケールが異なるマルチレベルポリシーの実装を可能にするマルチエージェント階層型RL(HRL)フレームワークを提案する。
従来技術のユースケースでは、HRLフレームワークを用いて、産業機器の最大送電量と送電電力を最適化した。
論文 参考訳(メタデータ) (2023-07-25T11:23:38Z) - Federated Meta-Learning for Traffic Steering in O-RAN [1.400970992993106]
フェデレーション・メタラーニング(FML)に基づくRATアロケーションのアルゴリズムを提案する。
LTEおよび5G NRサービス技術を含むシミュレーション環境を設計した。
論文 参考訳(メタデータ) (2022-09-13T10:39:41Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - End-to-End Learning of OFDM Waveforms with PAPR and ACLR Constraints [15.423422040627331]
送信機にニューラルネットワーク(NN)を用いて,PAPRと隣接チャネルリーク比(ACLR)を制御可能な高次元変調方式を学習することを提案する。
2つのNNはOFDM上で動作し、PAPRとACLRの制約を強制するトレーニングアルゴリズムを使用して、エンドツーエンドで共同最適化される。
論文 参考訳(メタデータ) (2021-06-30T13:09:30Z) - A Low-Delay MAC for IoT Applications: Decentralized Optimal Scheduling
of Queues without Explicit State Information Sharing [8.039591168227345]
タイムスロットの無線チャネルを共有する複数のノードのシステムについて検討する。
我々は、(i)平均遅延が低く、(ii)分散制御があり、(iii)状態情報や制御信号の明示的な交換を必要としないMAC(medium access control)を求める。
このようなMACプロトコルの設計は、ライトトラフィックにおける競合アクセスと、高トラフィックにおけるスケジュールアクセスの必要性を念頭に置いておく必要がある。
論文 参考訳(メタデータ) (2021-05-24T11:44:08Z) - Multi-hop RIS-Empowered Terahertz Communications: A DRL-based Hybrid
Beamforming Design [39.21220050099642]
テラヘルツ帯における無線通信 (0.1-10thz) は、将来の第6世代 (6g) 無線通信システムの鍵となる技術の一つとして考えられている。
マルチホップRIS対応通信ネットワークのための新しいハイブリッドビームフォーミング方式を提案し,THz帯域でのカバレッジ範囲を改善する。
論文 参考訳(メタデータ) (2021-01-22T14:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。