論文の概要: A Model-based GNN for Learning Precoding
- arxiv url: http://arxiv.org/abs/2212.00860v1
- Date: Thu, 1 Dec 2022 20:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 18:01:44.008975
- Title: A Model-based GNN for Learning Precoding
- Title(参考訳): プレコーディング学習のためのモデルベースGNN
- Authors: Jia Guo and Chenyang Yang
- Abstract要約: ニューラルネットワークによる事前コーディングポリシの学習は、低複雑性のオンライン実装、チャネル障害に対する堅牢性、チャネル取得との併用最適化を可能にする。
既存のニューラルネットワークは、マルチユーザ干渉を緩和するためのプリコーディングの最適化を学ぶために使用されると、トレーニングの複雑さと一般化能力の低下に悩まされる。
数理モデルとポリシの特性を両立させることにより,プリコーディングポリシを学習するためのグラフニューラルネットワーク(GNN)を提案する。
- 参考スコア(独自算出の注目度): 37.060397377445504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning precoding policies with neural networks enables low complexity
online implementation, robustness to channel impairments, and joint
optimization with channel acquisition. However, existing neural networks suffer
from high training complexity and poor generalization ability when they are
used to learn to optimize precoding for mitigating multi-user interference.
This impedes their use in practical systems where the number of users is
time-varying. In this paper, we propose a graph neural network (GNN) to learn
precoding policies by harnessing both the mathematical model and the property
of the policies. We first show that a vanilla GNN cannot well-learn
pseudo-inverse of channel matrix when the numbers of antennas and users are
large, and is not generalizable to unseen numbers of users. Then, we design a
GNN by resorting to the Taylor's expansion of matrix pseudo-inverse, which
allows for capturing the importance of the neighbored edges to be aggregated
that is crucial for learning precoding policies efficiently. Simulation results
show that the proposed GNN can well learn spectral efficient and energy
efficient precoding policies in single- and multi-cell multi-user multi-antenna
systems with low training complexity, and can be well generalized to the
numbers of users.
- Abstract(参考訳): ニューラルネットワークによる事前コーディングポリシの学習は、低複雑性のオンライン実装、チャネル障害に対する堅牢性、チャネル取得との併用最適化を可能にする。
しかし、既存のニューラルネットワークは、マルチユーザ干渉を緩和するためのプリコーディングの最適化を学ぶために使用されると、トレーニングの複雑さと一般化能力の低下に悩まされる。
これは、ユーザ数が時間的に異なる実用的なシステムでの使用を妨げる。
本稿では,数理モデルとポリシの特性を両立させることで,プリコーディングポリシを学習するためのグラフニューラルネットワーク(GNN)を提案する。
まず,アンテナ数とユーザ数が大きい場合,バニラGNNはチャネル行列の擬似逆解析を十分に学べず,未確認ユーザ数には一般化できないことを示す。
そこで,GNNをTaylorの擬似逆行列の拡張に頼って設計し,事前符号化ポリシーを効率よく学習する上で欠かせない,隣り合うエッジの重要性を把握できるようにする。
シミュレーションの結果、GNNは、訓練の複雑さの低いシングルセルおよびマルチセルマルチユーザアンテナシステムにおいて、スペクトル効率とエネルギー効率のよいプリコーディングポリシーを十分に学習でき、ユーザ数によく一般化できることがわかった。
関連論文リスト
- The Power of Linear Combinations: Learning with Random Convolutions [2.0305676256390934]
現代のCNNは、ランダムな(空間的な)畳み込みフィルタを更新することなく、高いテスト精度を達成することができる。
これらのランダムフィルタの組み合わせは、結果の操作を暗黙的に正規化することができる。
私たちは3ドル3セントの畳み込みを学習することで比較的小さな利益しか得られないが、学習率はカーネルサイズに比例して増加する。
論文 参考訳(メタデータ) (2023-01-26T19:17:10Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - DNN Training Acceleration via Exploring GPGPU Friendly Sparsity [16.406482603838157]
本稿では、従来のランダムなニューロンやシナプスのドロップアウトを、通常のオンラインの行ベースもしくはタイルベースのドロップアウトパターンに置き換える近似ランダムドロップアウトを提案する。
次に,SGDに基づく探索アルゴリズムを開発し,行ベースあるいはタイルベースのドロップアウトパターンの分布を生成し,潜在的な精度損失を補う。
また,入力特徴図をその感度に基づいて動的にドロップアウトし,前向きおよび後向きのトレーニングアクセラレーションを実現するための感度対応ドロップアウト手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T01:32:03Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Learning Power Control for Cellular Systems with Heterogeneous Graph
Neural Network [37.060397377445504]
電力制御ポリシには異なるPI特性とPE特性が組み合わさっており,既存のHetGNNはこれらの特性を満足していないことを示す。
We design a parameter sharing scheme for HetGNN that the learned relationship satisfed the desired properties。
論文 参考訳(メタデータ) (2020-11-06T02:41:38Z) - Constructing Deep Neural Networks with a Priori Knowledge of Wireless
Tasks [37.060397377445504]
無線タスクに広く存在する2種類の置換不変性は、モデルパラメータの数を減らすために利用することができる。
可変DNN (permutation invariant DNN) と呼ばれる特性を満たす入出力関係を持つDNNの特殊構造を求める。
予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。
論文 参考訳(メタデータ) (2020-01-29T08:54:42Z) - Lossless Compression of Deep Neural Networks [17.753357839478575]
ディープニューラルネットワークは、画像や言語認識など、多くの予測モデリングタスクで成功している。
モバイルデバイスのような限られた計算資源の下でこれらのネットワークをデプロイすることは困難である。
生成した出力を変更せずに、ニューラルネットワークの単位と層を除去するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-01-01T15:04:43Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。