論文の概要: A Low-Complexity Plug-and-Play Deep Learning Model for Generalizable Massive MIMO Precoding
- arxiv url: http://arxiv.org/abs/2601.21897v1
- Date: Thu, 29 Jan 2026 15:56:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.961936
- Title: A Low-Complexity Plug-and-Play Deep Learning Model for Generalizable Massive MIMO Precoding
- Title(参考訳): 一般化可能なMIMOプリコーディングのための低複雑さプラグアンドプレイ深層学習モデル
- Authors: Ali Hasanzadeh Karkan, Ahmed Ibrahim, Jean-François Frigon, François Leduc-Primeau,
- Abstract要約: MMIMO(Massive multiple-input multiple-output)ダウンリンクプリコーディングはスペクトル効率が高い。
既存のディープラーニング(DL)ベースのソリューションは堅牢性に欠けることが多く、デプロイメントサイト毎に再トレーニングが必要になる。
本稿では,完全ディジタル(FDP)またはハイブリッドビームフォーミング(HBF)プリコーディングのトレーニングが可能なバックボーン付きプラグアンドプレイプリコーダ(PaPP)を提案する。
- 参考スコア(独自算出の注目度): 2.3676623211643704
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Massive multiple-input multiple-output (mMIMO) downlink precoding offers high spectral efficiency but remains challenging to deploy in practice because near-optimal algorithms such as the weighted minimum mean squared error (WMMSE) are computationally expensive, and sensitive to SNR and channel-estimation quality, while existing deep learning (DL)-based solutions often lack robustness and require retraining for each deployment site. This paper proposes a plug-and-play precoder (PaPP), a DL framework with a backbone that can be trained for either fully digital (FDP) or hybrid beamforming (HBF) precoding and reused across sites, transmit-power levels, and with varying amounts of channel estimation error, avoiding the need to train a new model from scratch at each deployment. PaPP combines a high-capacity teacher and a compact student with a self-supervised loss that balances teacher imitation and normalized sum-rate, trained using meta-learning domain-generalization and transmit-power-aware input normalization. Numerical results on ray-tracing data from three unseen sites show that the PaPP FDP and HBF models both outperform conventional and deep learning baselines, after fine-tuning with a small set of local unlabeled samples. Across both architectures, PaPP achieves more than 21$\times$ reduction in modeled computation energy and maintains good performance under channel-estimation errors, making it a practical solution for energy-efficient mMIMO precoding.
- Abstract(参考訳): 重み付き平均二乗誤差(WMMSE)のような準最適アルゴリズムは計算コストが高く、SNRやチャネル推定品質に敏感であるのに対して、既存のディープラーニング(DL)ベースのソリューションは堅牢性に欠け、各デプロイメントサイトに対して再トレーニングを必要としている。
本稿では,完全ディジタル (FDP) またはハイブリッドビームフォーミング (HBF) のプリコーディング, 伝送電力レベル, チャネル推定誤差を多種に分けてトレーニング可能な,バックボーン付きDLフレームワークPaPPを提案する。
PaPPは、高容量の教師とコンパクトな学生を、教師の模倣と正規化された総和率のバランスをとる自己監督的な損失と組み合わせ、メタラーニングドメインの一般化とトランスミッションパワー・アウェアの入力正規化を用いて訓練する。
3つの未確認地点からのレイトレーシングデータによる数値的な結果から,PaPP FDPとHBFのモデルが局所的な未ラベルサンプルを微調整した後,従来と深層学習のベースラインを上回る結果を得た。
どちらのアーキテクチャでも、PaPPは21ドル以上でモデル化された計算エネルギーの削減を実現し、チャネル推定誤差下では優れた性能を維持し、エネルギー効率の良いmMIMOプリコーディングのための実用的なソリューションである。
関連論文リスト
- A Foundation Model for Massive MIMO Precoding with an Adaptive per-User Rate-Power Tradeoff [4.8310710966636545]
本稿では,mMIMOプリコーディングのためのトランスフォーマーベース基礎モデルを提案する。
エネルギー消費が等しく、提案した基礎モデルのゼロショット展開はゼロ強制よりも著しく優れ、重み付き平均二乗誤差性能を8倍の複雑さでアプローチする。
我々の研究は、データの可用性とトレーニングの複雑さの課題に対処することで、DLベースのソリューションを実践的に実装することを可能にする。
論文 参考訳(メタデータ) (2025-07-24T17:10:06Z) - A Lightweight RL-Driven Deep Unfolding Network for Robust WMMSE Precoding in Massive MU-MIMO-OFDM Systems [8.526578240549794]
本稿では,各SWMMSEイテレーションをネットワーク層にマッピングする,軽量強化学習(RL)駆動の深層展開(RLDDU-Net)ネットワークを提案する。
具体的には、そのDUモジュールは、ビーム領域の間隔と周波数領域のサブキャリア相関を統合し、収束を著しく加速し、計算オーバーヘッドを低減する。
不完全なCSI下でのシミュレーションの結果、RLDDU-Netは計算効率と収束効率を向上しつつ、既存のEWSR性能のベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2025-06-19T06:54:42Z) - A Low-Complexity Plug-and-Play Deep Learning Model for Massive MIMO Precoding Across Sites [5.896656636095934]
MMIMO技術は、スペクトル効率とネットワーク容量を向上させることで、無線通信を変革した。
本稿では,既存のアプローチの複雑性問題に対処するための,新しいディープラーニングベースのmMIMOプリコーダを提案する。
論文 参考訳(メタデータ) (2025-02-12T20:02:36Z) - Federated Split Learning with Model Pruning and Gradient Quantization in Wireless Networks [7.439160287320074]
Federated split learning (FedSL)は、モデル分割によるエッジデバイスとサーバ間の協調トレーニングを実装している。
本稿では,リソース制約のあるエッジデバイスのトレーニング負担を軽減する軽量なFedSL方式を提案する。
提案手法の収束性能を定量化するために理論的解析を行う。
論文 参考訳(メタデータ) (2024-12-09T11:43:03Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。