論文の概要: Deep Reinforcement Learning-based Cell DTX/DRX Configuration for Network Energy Saving
- arxiv url: http://arxiv.org/abs/2507.21385v1
- Date: Mon, 28 Jul 2025 23:35:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.37202
- Title: Deep Reinforcement Learning-based Cell DTX/DRX Configuration for Network Energy Saving
- Title(参考訳): ネットワーク省エネルギーのための深層強化学習型細胞DTX/DRX構成
- Authors: Wei Mao, Lili Wei, Omid Semiari, Shu-ping Yeh, Hosein Nikopour,
- Abstract要約: Cell DTX/DRXは5Gにとって重要なネットワークエネルギー節約機能である。
本稿では,セルDTX/DRXの省エネとパケット遅延を最適にバランスするために,セルDTX/DRXの設定方法を検討する。
我々は、任意のネットワークと交通条件下で可能な限りのセルDTX/DRX構成を選択しようとするAIエージェントを訓練する。
- 参考スコア(独自算出の注目度): 7.690319164341299
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3GPP Release 18 cell discontinuous transmission and reception (cell DTX/DRX) is an important new network energy saving feature for 5G. As a time-domain technique, it periodically aggregates the user data transmissions in a given duration of time when the traffic load is not heavy, so that the remaining time can be kept silent and advanced sleep modes (ASM) can be enabled to shut down more radio components and save more energy for the cell. However, inevitably the packet delay is increased, as during the silent period no transmission is allowed. In this paper we study how to configure cell DTX/DRX to optimally balance energy saving and packet delay, so that for delay-sensitive traffic maximum energy saving can be achieved while the degradation of quality of service (QoS) is minimized. As the optimal configuration can be different for different network and traffic conditions, the problem is complex and we resort to deep reinforcement learning (DRL) framework to train an AI agent to solve it. Through careful design of 1) the learning algorithm, which implements a deep Q-network (DQN) on a contextual bandit (CB) model, and 2) the reward function, which utilizes a smooth approximation of a theoretically optimal but discontinuous reward function, we are able to train an AI agent that always tries to select the best possible Cell DTX/DRX configuration under any network and traffic conditions. Simulation results show that compared to the case when cell DTX/DRX is not used, our agent can achieve up to ~45% energy saving depending on the traffic load scenario, while always maintaining no more than ~1% QoS degradation.
- Abstract(参考訳): 3GPP Release 18 cell discontinuous transmission and reception (cell DTX/DRX) は5Gにとって重要なネットワークエネルギー節約機能である。
タイムドメイン技術として、トラフィック負荷が重くない場合の所定の時間内に定期的にユーザデータ送信を集約することにより、残りの時間を静かに保ち、高度な睡眠モード(ASM)を有効にすることで、より多くの無線コンポーネントをシャットダウンし、セルにより多くのエネルギーを節約することができる。
しかし、サイレント期間中に送信が許可されないため、パケット遅延が必然的に増大する。
本稿では,サービス品質(QoS)の低下を最小化しつつ,遅延に敏感なトラフィック最大省エネを実現するため,セルDTX/DRXを最適に電力節約とパケット遅延のバランスに設定する方法を検討する。
最適構成がネットワークや交通条件によって異なる可能性があるため、問題は複雑であり、AIエージェントをトレーニングする深層強化学習(DRL)フレームワークを活用して解決する。
注意深い設計を通じて
1) 文脈的帯域幅(CB)モデルに基づく深層Qネットワーク(DQN)を実装した学習アルゴリズムと,
2) 理論的に最適だが不連続な報酬関数のスムーズな近似を利用する報奨関数は,任意のネットワークおよび交通条件下で可能なセルDTX/DRX構成を常に選択しようとするAIエージェントを訓練することができる。
シミュレーションの結果, セルDTX/DRXを使用しない場合と比較して, 負荷シナリオに応じて最大45%の省エネが可能であり, 常にQoSの劣化を1%以下に抑えることができることがわかった。
関連論文リスト
- Energy-Efficient Power Control for Multiple-Task Split Inference in
UAVs: A Tiny Learning-Based Approach [27.48920259431965]
無人航空機(UAV)における分割推論におけるエネルギー最小化のための2段階のアプローチを提案する。
送信電力の最適化を送信時間に置き換えて,計算複雑性を低減する。
シミュレーションの結果,提案アルゴリズムは低消費電力でタスク完了確率が高いことを示す。
論文 参考訳(メタデータ) (2023-12-31T10:16:59Z) - Teal: Learning-Accelerated Optimization of WAN Traffic Engineering [68.7863363109948]
本稿では,GPUの並列処理能力を活用してTE制御を高速化する学習型TEアルゴリズムTealを提案する。
問題スケールの削減と学習のトラクタビリティ向上のために,Tealはマルチエージェント強化学習(RL)アルゴリズムを用いて,各トラフィック要求を独立に割り当てる。
他のTE加速方式と比較して、Tealは需要を6~32%増やし、197~625倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-10-25T04:46:30Z) - Artificial Intelligence Empowered Multiple Access for Ultra Reliable and
Low Latency THz Wireless Networks [76.89730672544216]
テラヘルツ(THz)無線ネットワークは、第5世代(B5G)以上の時代を触媒すると予想されている。
いくつかのB5Gアプリケーションの超信頼性と低レイテンシ要求を満たすためには、新しいモビリティ管理アプローチが必要である。
本稿では、インテリジェントなユーザアソシエーションとリソースアロケーションを実現するとともに、フレキシブルで適応的なモビリティ管理を可能にする、全体論的MAC層アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-17T03:00:24Z) - DeepGANTT: A Scalable Deep Learning Scheduler for Backscatter Networks [6.412612364488614]
DeepGANTTは、グラフニューラルネットワークを活用して、ほぼ最適なキャリアスケジューリングを効率的に提供するスケジューラである。
DeepGANTTは,ノード数で6倍,タグ数で10倍のネットワークに一般化されている。
論文 参考訳(メタデータ) (2021-12-24T07:58:42Z) - ENERO: Efficient Real-Time Routing Optimization [2.830334160074889]
交通工学(TE)ソリューションは、高性能なリアルタイムネットワーク運用を実現する必要がある。
現在のTE技術は手工芸品や計算コストの高い解法に依存している。
本稿では,効率的なリアルタイムTEエンジンであるEeroを提案する。
論文 参考訳(メタデータ) (2021-09-22T17:53:30Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Energy Efficient Edge Computing: When Lyapunov Meets Distributed
Reinforcement Learning [12.845204986571053]
本研究では,エッジコンピューティングによるエネルギー効率のよいオフロード問題について検討する。
考慮されたシナリオでは、複数のユーザが同時に無線およびエッジコンピューティングリソースを競う。
提案されたソリューションは、ベンチマークアプローチと比較してネットワークのエネルギー効率を高めることもできます。
論文 参考訳(メタデータ) (2021-03-31T11:02:29Z) - Cognitive Radio Network Throughput Maximization with Deep Reinforcement
Learning [58.44609538048923]
RF-CRN(Radio Frequency powered Cognitive Radio Networks)は、IoT(Internet of Things)などの最新のネットワークの目と耳である可能性が高い。
自律的と考えるには、RF駆動のネットワークエンティティは、ネットワーク環境の不確実性の下でネットワークスループットを最大化するために、ローカルで決定する必要がある。
本稿では,この欠点を克服し,無線ゲートウェイがネットワークスループットを最大化するための最適なポリシーを導出できるように,深層強化学習を提案する。
論文 参考訳(メタデータ) (2020-07-07T01:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。