論文の概要: Toward Energy-Efficient Massive MIMO: Graph Neural Network Precoding for
Mitigating Non-Linear PA Distortion
- arxiv url: http://arxiv.org/abs/2312.04591v1
- Date: Tue, 5 Dec 2023 13:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 14:59:08.681008
- Title: Toward Energy-Efficient Massive MIMO: Graph Neural Network Precoding for
Mitigating Non-Linear PA Distortion
- Title(参考訳): 非線形pa歪み緩和のためのエネルギー効率の高い大規模mimo:グラフニューラルネットワークプリコーディングに向けて
- Authors: Thomas Feys, Liesbet Van der Perre, Fran\c{c}ois Rottenberg
- Abstract要約: グラフニューラルネットワーク(GNN)は、チャネルとプリコーディング行列の間のマッピングを学習し、非線形歪みによる和率を最大化する。
歪み制限方式では、このGNNベースのプリコーダは、ゼロ強制(ZF)、ZF、デジタル事前歪み(DPD)および歪み対応ビームフォーミング(DAB)プリコーダよりも優れる。
- 参考スコア(独自算出の注目度): 1.7495213911983414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Massive MIMO systems are typically designed assuming linear power amplifiers
(PAs). However, PAs are most energy efficient close to saturation, where
non-linear distortion arises. For conventional precoders, this distortion can
coherently combine at user locations, limiting performance. We propose a graph
neural network (GNN) to learn a mapping between channel and precoding matrices,
which maximizes the sum rate affected by non-linear distortion, using a
high-order polynomial PA model. In the distortion-limited regime, this
GNN-based precoder outperforms zero forcing (ZF), ZF plus digital
pre-distortion (DPD) and the distortion-aware beamforming (DAB) precoder from
the state-of-the-art. At an input back-off of -3 dB the proposed precoder
compared to ZF increases the sum rate by 8.60 and 8.84 bits/channel use for two
and four users respectively. Radiation patterns show that these gains are
achieved by transmitting the non-linear distortion in non-user directions. In
the four user-case, for a fixed sum rate, the total consumed power (PA and
processing) of the GNN precoder is 3.24 and 1.44 times lower compared to ZF and
ZF plus DPD respectively. A complexity analysis shows six orders of magnitude
reduction compared to DAB precoding. This opens perspectives to operate PAs
closer to saturation, which drastically increases their energy efficiency.
- Abstract(参考訳): 大規模MIMOシステムは一般に線形パワー増幅器(PA)として設計されている。
しかし、PAは非線型歪みが発生する飽和に近いエネルギー効率が最も高い。
従来のプリコーダでは、この歪みはユーザの位置でコヒーレントに結合し、パフォーマンスを制限できる。
チャネルとプリコーディング行列のマッピングを学習するグラフニューラルネットワーク(GNN)を提案し,高次多項式PAモデルを用いて非線形歪みの影響を最大化する。
歪み制限方式では、このGNNベースのプリコーダは、ゼロ強制(ZF)、ZF+デジタルプレ歪み(DPD)、および歪み認識ビームフォーミング(DAB)プレコーダよりも優れる。
入力バックオフが -3 db の場合、zf と比較して提案するプリコーダは、それぞれ 2 ユーザと 4 ユーザに対して、合計レート 8.60 と 8.84 ビット/チャネル使用率を増加させる。
放射パターンは、非線形歪みを非ユーザ方向に伝達することで得られることを示す。
4つのユーザケースにおいて、固定和率の場合、gnnプリコーダの総消費電力(paおよび処理)は、zfおよびzf+dpdと比較してそれぞれ3.24および1.44倍低い。
複雑性解析はDABプリコーディングに比べて6桁のスケール縮小を示す。
これはpasを飽和に近づける視点を開き、エネルギー効率を劇的に向上させる。
関連論文リスト
- MP-DPD: Low-Complexity Mixed-Precision Neural Networks for Energy-Efficient Digital Predistortion of Wideband Power Amplifiers [8.58564278168083]
Digital Pre-Distortion (DPD) は広帯域RFパワー増幅器(PA)の信号品質を向上させる
本稿では,エネルギー効率の DPD に対して,量子化された低精度固定点パラメータを用いたオープンソースの混合精度(MP)ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-04-18T21:04:39Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - Josephson parametric amplifier with Chebyshev gain profile and high
saturation [0.0]
本稿では,3階Chebyshevプロトタイプに基づく帯域通過インピーダンスマッチングネットワークを用いたジョセフソンパラメトリック増幅器の設計を実証する。
我々は、8つの増幅器を4.6GHzで動作させ、1dB未満の利得と最大500MHzの帯域幅を持つ20dBの利得を示す。
我々は,Sycamoreプロセッサを用いて,飽和付近のシステム読み出し効率と信号-雑音比を特徴付ける。
論文 参考訳(メタデータ) (2023-05-28T22:04:08Z) - Self-Supervised Learning of Linear Precoders under Non-Linear PA
Distortion for Energy-Efficient Massive MIMO Systems [9.324642081509756]
大規模多重入力多重出力(MIMO)システムは通常、線形パワー増幅器(PA)を前提として設計される。
しかしながら、PAは典型的には、飽和点近くで作動するときに最もエネルギー効率が良く、非線型歪みを引き起こす。
本研究では,チャネル行列とプリコーディング行列とのマッピングをニューラルネットワーク(NN)で学習し,この非線形歪みの存在を最大化する手法を提案する。
論文 参考訳(メタデータ) (2022-10-13T13:48:50Z) - Numerical analysis of a three-wave-mixing Josephson traveling-wave
parametric amplifier with engineered dispersion loadings [62.997667081978825]
最近提案されたジョゼフソン走行波パラメトリック増幅器は、20dBの利得と少なくとも4GHzのフラット帯域を実現する大きな可能性を秘めている。
回路パラメータの周期変調による高度なJTWPA回路をモデル化する。
エンジニアリングされた分散ローディングにより、350ドル(約3万3000円)から9ドル(約3万3000円)まで、十分な広帯域幅を実現できます。
論文 参考訳(メタデータ) (2022-09-22T14:46:04Z) - Readout of a quantum processor with high dynamic range Josephson
parametric amplifiers [132.67289832617647]
デバイスは、帯域幅250-300MHzの50ドルOmega$環境と一致し、入力飽和電力は最大で-95dBm、20dBゲインとなる。
54キュービットのSycamoreプロセッサがこれらのデバイスをベンチマークするために使用された。
設計は、システムノイズ、読み出しフィデリティ、およびクビットのデフォーカスに悪影響を及ぼさない。
論文 参考訳(メタデータ) (2022-09-16T07:34:05Z) - Inception Transformer [151.939077819196]
インセプショントランスフォーマー(iFormer)は、視覚データ中の高周波数情報と低周波情報の両方で包括的特徴を学習する。
我々は、iFormerを一連の視覚タスクでベンチマークし、画像分類、COCO検出、ADE20Kセグメンテーションにおいて優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2022-05-25T17:59:54Z) - Efficient Autoprecoder-based deep learning for massive MU-MIMO Downlink
under PA Non-Linearities [0.0]
本稿では,マルチユーザ干渉を解消し,重度非線形(NL)PA歪みを補償する新しい手法であるAP-mMIMOを提案する。
以前の研究とは異なり、AP-mMIMOは計算量が少ないため、地球規模のエネルギー効率の高いシステムに適している。
論文 参考訳(メタデータ) (2022-02-03T08:53:52Z) - Adaptive Fourier Neural Operators: Efficient Token Mixers for
Transformers [55.90468016961356]
本稿では,Fourierドメインのミキシングを学習する効率的なトークンミキサーを提案する。
AFNOは、演算子学習の原則的基礎に基づいている。
65kのシーケンスサイズを処理でき、他の効率的な自己認識機構より優れている。
論文 参考訳(メタデータ) (2021-11-24T05:44:31Z) - Quantum Gates Robust to Secular Amplitude Drifts [0.0]
また, フィルタ次数$n+1$ arXiv:1410.1624の高域通過フィルタであることを示す。
従来のシーケンスよりも,$textPLA(n)$シーケンスの方がエラーの抑制に役立ちます。
論文 参考訳(メタデータ) (2021-08-10T14:44:05Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。