論文の概要: Learning-Based Latency-Constrained Fronthaul Compression Optimization in
C-RAN
- arxiv url: http://arxiv.org/abs/2311.03899v1
- Date: Tue, 7 Nov 2023 11:26:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 15:46:08.502388
- Title: Learning-Based Latency-Constrained Fronthaul Compression Optimization in
C-RAN
- Title(参考訳): C-RANにおける学習型レイテンシ制約付きフロントホール圧縮最適化
- Authors: Axel Gr\"onland, Bleron Klaiqi, Xavier Gelabert
- Abstract要約: 機能デプロイメントの柔軟性は、厳格なフロントハウル(FH)キャパシティとレイテンシ要件のコストによって実現される。
これらの厳密な制約に対処するため、高負荷時により多くの圧縮が適用されるが、中低負荷時には少ない圧縮が適用される。
FH圧縮を動的に制御するモデルフリー深部強化学習(DRL)ベースのFH圧縮(DRL-FC)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.7537475180985097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The evolution of wireless mobile networks towards cloudification, where Radio
Access Network (RAN) functions can be hosted at either a central or distributed
locations, offers many benefits like low cost deployment, higher capacity, and
improved hardware utilization. Nevertheless, the flexibility in the functional
deployment comes at the cost of stringent fronthaul (FH) capacity and latency
requirements. One possible approach to deal with these rigorous constraints is
to use FH compression techniques. To ensure that FH capacity and latency
requirements are met, more FH compression is applied during high load, while
less compression is applied during medium and low load to improve FH
utilization and air interface performance. In this paper, a model-free deep
reinforcement learning (DRL) based FH compression (DRL-FC) framework is
proposed that dynamically controls FH compression through various configuration
parameters such as modulation order, precoder granularity, and precoder weight
quantization that affect both FH load and air interface performance. Simulation
results show that DRL-FC exhibits significantly higher FH utilization (68.7% on
average) and air interface throughput than a reference scheme (i.e. with no
applied compression) across different FH load levels. At the same time, the
proposed DRL-FC framework is able to meet the predefined FH latency constraints
(in our case set to 260 $\mu$s) under various FH loads.
- Abstract(参考訳): 無線アクセスネットワーク(ran)機能を中央または分散のロケーションにホストできるクラウド化へのワイヤレスモバイルネットワークの進化は、低コストなデプロイメント、高容量化、ハードウェア利用の改善といった多くのメリットを提供している。
それでも、機能デプロイメントの柔軟性は、厳格なフロントハウル(FH)キャパシティとレイテンシ要件のコストが伴う。
これらの厳密な制約に対処する1つの可能なアプローチは、FH圧縮技術を使用することである。
FHのキャパシティとレイテンシの要件を満たすため、高負荷時により多くのFH圧縮が適用され、中低負荷時には少ない圧縮が適用され、FH利用率と空気界面性能が向上する。
本稿では, モデルフリー深部強化学習(DRL)に基づくFH圧縮(DRL-FC)フレームワークを提案し, 変調順序, プリコーダの粒度, およびFH負荷および空気界面性能に影響を与えるプリコーダの量量子化など, 各種構成パラメータによるFH圧縮を動的に制御する。
シミュレーションの結果、DRL-FCはFH負荷レベルの異なる基準スキーム(すなわち、適用圧縮のない)よりもFH利用率(平均68.7%)と空気界面のスループットが著しく高いことが示された。
同時に、DRL-FCフレームワークは、さまざまなFH負荷下で、予め定義されたFHレイテンシ制約(ここでは260$\mu$sに設定する)を満たすことができる。
関連論文リスト
- Deep-Learned Compression for Radio-Frequency Signal Classification [0.49109372384514843]
次世代の細胞概念は、大量の高周波サンプルの処理に依存している。
RF信号の複雑な値のサンプルを圧縮する深層学習圧縮モデルHQARFを提案する。
RF信号の変調クラスを推定するために訓練されたAIモデルの性能に対するHQARFの効果を評価する。
論文 参考訳(メタデータ) (2024-03-05T17:42:39Z) - SPC-NeRF: Spatial Predictive Compression for Voxel Based Radiance Field [41.33347056627581]
本稿では,EVG圧縮に空間予測符号化を適用した新しいフレームワークであるSPC-NeRFを提案する。
我々の手法は最先端のVQRFに比べて32%のビット節約が可能である。
論文 参考訳(メタデータ) (2024-02-26T07:40:45Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Spectrum Breathing: Protecting Over-the-Air Federated Learning Against
Interference [101.9031141868695]
モバイルネットワークは、近隣のセルやジャマーからの干渉によって損なわれる可能性がある。
本稿では,帯域幅拡大を伴わない干渉を抑制するために,カスケード段階のプルーニングとスペクトル拡散を行うスペクトルブリーチングを提案する。
呼吸深度によって制御された勾配プルーニングと干渉誘発誤差の間には,性能的トレードオフが認められた。
論文 参考訳(メタデータ) (2023-05-10T07:05:43Z) - Federated Deep Reinforcement Learning for THz-Beam Search with Limited
CSI [17.602598143822913]
超広帯域でのテラヘルツ(THz)通信は次世代無線ネットワークにおける高データレートの厳密な要求を実現するための有望な技術である。
THz信号の激しい伝搬減衰を効果的に克服するために、大規模なアンテナアレイのビーム方向を見つけることは、迫力のあるニーズである。
本稿では,複数の基地局のTHzビーム探索を高速に行うためのFDRL(Federated Deep reinforcement Learning)を提案する。
論文 参考訳(メタデータ) (2023-04-25T19:28:15Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Bitwidth Heterogeneous Federated Learning with Progressive Weight
Dequantization [58.31288475660333]
ビット幅の不均一なフェデレート学習(BHFL)を用いた実用的フェデレーション学習シナリオを提案する。
BHFLは、異なるビット幅のモデルパラメータの集約が深刻な性能劣化をもたらすという、新しい課題をもたらす。
本稿では,低ビット幅の重みをより高ビット幅の重みに段階的に再構成し,最終的に完全精度の重みに再構成する,トレーニング可能な重み決定器を中央サーバに備えたProWDフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-23T12:07:02Z) - Intrinisic Gradient Compression for Federated Learning [3.9215337270154995]
フェデレートされた学習は、多数のクライアントがプライベートなデータに基づいて機械学習モデルを共同でトレーニングすることを可能にする。
連合学習を広く採用する上で最大の障壁の1つは、モデル更新をクライアントからクライアントに送信する通信コストである。
論文 参考訳(メタデータ) (2021-12-05T19:16:54Z) - Fourier Space Losses for Efficient Perceptual Image Super-Resolution [131.50099891772598]
提案した損失関数の適用のみで,最近導入された効率的なジェネレータアーキテクチャの性能向上が可能であることを示す。
フーリエ空間における周波数に対する損失の直接的強調は知覚的画質を著しく向上させることを示す。
訓練されたジェネレータは、最先端の知覚的SR法である RankSRGAN と SRFlow よりも2.4倍、48倍高速である。
論文 参考訳(メタデータ) (2021-06-01T20:34:52Z) - Encoding Frequency Constraints in Preventive Unit Commitment Using Deep
Learning with Region-of-Interest Active Sampling [8.776029771500689]
本稿では,周波数制約単位コミットメント(FCUC)のための汎用データ駆動型フレームワークを提案する。
深層ニューラルネットワーク(dnn)を訓練し、実データや高忠実度シミュレーションデータを用いて周波数応答を予測する。
データ生成フェーズでは、すべての可能な電力注入を考慮し、uflcしきい値に近い周波数nadirの電力注入サンプルを含む領域間アクティブサンプリングを提案する。
論文 参考訳(メタデータ) (2021-02-18T19:04:21Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。