論文の概要: Compression of Site-Specific Deep Neural Networks for Massive MIMO Precoding
- arxiv url: http://arxiv.org/abs/2502.08758v1
- Date: Wed, 12 Feb 2025 20:03:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 20:05:34.985197
- Title: Compression of Site-Specific Deep Neural Networks for Massive MIMO Precoding
- Title(参考訳): 大規模MIMOプリコーディングのためのサイト特化ディープニューラルネットワークの圧縮
- Authors: Ghazal Kasalaee, Ali Hasanzadeh Karkan, Jean-François Frigon, François Leduc-Primeau,
- Abstract要約: 本稿では,深層学習を用いたmMIMOプリコーダの計算エネルギー効率について検討する。
本稿では,混合精度量子化学習とニューラルアーキテクチャ探索を併用して,エネルギー使用量を削減するフレームワークを提案する。
この結果から,ニューラルネットワークの深部圧縮はWMMSEの35倍のエネルギー効率を持つプリコーダを同等の性能で生成することがわかった。
- 参考スコア(独自算出の注目度): 4.8310710966636545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment of deep learning (DL) models for precoding in massive multiple-input multiple-output (mMIMO) systems is often constrained by high computational demands and energy consumption. In this paper, we investigate the compute energy efficiency of mMIMO precoders using DL-based approaches, comparing them to conventional methods such as zero forcing and weighted minimum mean square error (WMMSE). Our energy consumption model accounts for both memory access and calculation energy within DL accelerators. We propose a framework that incorporates mixed-precision quantization-aware training and neural architecture search to reduce energy usage without compromising accuracy. Using a ray-tracing dataset covering various base station sites, we analyze how site-specific conditions affect the energy efficiency of compressed models. Our results show that deep neural network compression generates precoders with up to 35 times higher energy efficiency than WMMSE at equal performance, depending on the scenario and the desired rate. These results establish a foundation and a benchmark for the development of energy-efficient DL-based mMIMO precoders.
- Abstract(参考訳): 大規模マルチインプット・マルチアウトプット(mMIMO)システムにおけるプリコーディングのためのディープラーニング(DL)モデルの展開は、しばしば高い計算要求とエネルギー消費によって制約される。
本稿では,mMIMOプリコーダの計算エネルギー効率をDLベースの手法を用いて検討し,これをゼロ強制法や重み付き最小平均二乗誤差(WMMSE)といった従来の手法と比較する。
我々のエネルギー消費モデルは、DLアクセラレーター内のメモリアクセスと計算エネルギーの両方を考慮に入れている。
本稿では,混合精度量子化学習とニューラルアーキテクチャ探索を組み込んで,精度を損なうことなくエネルギー使用量を削減するフレームワークを提案する。
各種基地局を対象とするレイトレーシングデータセットを用いて, 圧縮モデルのエネルギー効率に及ぼすサイト固有の条件の影響を解析した。
以上の結果から,WMMSEよりも最大35倍のエネルギー効率を持つプリコーダを,シナリオと所望の速度で生成できることが示唆された。
これらの結果は、エネルギー効率の良いDLベースのmMIMOプリコーダの開発のための基盤とベンチマークを確立している。
関連論文リスト
- Modeling and Performance Analysis for Semantic Communications Based on Empirical Results [53.805458017074294]
終端計測とSNRの関係をモデル化するためのAlpha-Beta-Gamma (ABG) 式を提案する。
画像再構成タスクでは、提案されたABG公式は、SCUNetやVision Transformerといった一般的なDLネットワークに適合する。
我々の知る限りでは、これはエンドツーエンドのパフォーマンス指標と意味コミュニケーションのためのSNRの間の最初の理論的表現である。
論文 参考訳(メタデータ) (2025-04-29T06:07:50Z) - Towards Green AI-Native Networks: Evaluation of Neural Circuit Policy for Estimating Energy Consumption of Base Stations [5.466248014150832]
無線ハードウェアとAIベースのネットワーク管理ソフトウェアの最適化は、無線アクセスネットワークにおいてかなりのエネルギー節約をもたらす。
基盤となる機械学習(ML)モデルを実行するには、さらなる計算とエネルギが必要になる。
本研究は, 基地局のエネルギー消費を推定するために, スパース構造化ニューラルサーキットポリシ(NCP)の新たな利用法を評価する。
論文 参考訳(メタデータ) (2025-04-03T17:22:39Z) - QuartDepth: Post-Training Quantization for Real-Time Depth Estimation on the Edge [55.75103034526652]
ASIC のハードウェアアクセラレーションによる MDE モデルの定量化を後学習量子化に応用した QuartDepth を提案する。
提案手法では,重みとアクティベーションの両方を4ビット精度で定量化し,モデルサイズと計算コストを削減する。
我々は、カーネル融合とカスタマイズされた命令プログラム性をサポートすることにより、フレキシブルでプログラム可能なハードウェアアクセラレータを設計する。
論文 参考訳(メタデータ) (2025-03-20T21:03:10Z) - Energy-Aware Dynamic Neural Inference [39.04688735618206]
エネルギーハーベスターと有限容量エネルギーストレージを備えたオンデバイス適応型推論システムを提案する。
環境エネルギーの速度が増加するにつれて、エネルギー・信頼性を考慮した制御方式は精度を約5%向上させることが示されている。
我々は、信頼性を意識し、認識できないコントローラを理論的に保証する原則的なポリシーを導出する。
論文 参考訳(メタデータ) (2024-11-04T16:51:22Z) - Search for Efficient Large Language Models [52.98684997131108]
大規模言語モデル(LLMs)は、人工知能研究の領域で長い間停滞してきた。
軽量プルーニング、量子化、蒸留がLLMの圧縮に取り入れられ、メモリの削減と推論の加速を狙った。
ほとんどのモデル圧縮技術は、最適アーキテクチャの探索を見越して重量最適化に重点を置いている。
論文 参考訳(メタデータ) (2024-09-25T21:32:12Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - CoNLoCNN: Exploiting Correlation and Non-Uniform Quantization for
Energy-Efficient Low-precision Deep Convolutional Neural Networks [13.520972975766313]
本研究では、重みの非一様量子化を利用して、エネルギー効率の低い深部畳み込みニューラルネットワーク推論を可能にする枠組みを提案する。
また、重みのビット幅を圧縮する新しいデータ表現形式Encoded Low-Precision Binary Signed Digitを提案する。
論文 参考訳(メタデータ) (2022-07-31T01:34:56Z) - Energy-efficient Deployment of Deep Learning Applications on Cortex-M
based Microcontrollers using Deep Compression [1.4050836886292872]
本稿では,資源制約されたマイクロコントローラ上でのディープラーニングモデルの効率的な展開について検討する。
本稿では,異なるDNNプルーニング,量子化,展開戦略の体系的な探索手法を提案する。
予測品質が低下する前に、元のパラメータの10%以下まで圧縮できることが示される。
論文 参考訳(メタデータ) (2022-05-20T10:55:42Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。