論文の概要: A Bipartite Graph Neural Network Approach for Scalable Beamforming
Optimization
- arxiv url: http://arxiv.org/abs/2207.05364v1
- Date: Tue, 12 Jul 2022 07:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 15:51:38.838360
- Title: A Bipartite Graph Neural Network Approach for Scalable Beamforming
Optimization
- Title(参考訳): スケーラブルビームフォーミング最適化のための二部グラフニューラルネットワークアプローチ
- Authors: Junbeom Kim, Hoon Lee, Seung-Eun Hong, Seok-Hwan Park
- Abstract要約: マルチユーザ・シングルインプット・シングルアウトプット(MU-MISO)システムの最適化のために,Deep Learning(DL)技術が集中的に研究されている。
本稿では,アンテナ,すなわちユーザ数に関して,ビームフォーミングネットワークのためのフレームワークを開発する。
- 参考スコア(独自算出の注目度): 19.747638780327257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) techniques have been intensively studied for the
optimization of multi-user multiple-input single-output (MU-MISO) downlink
systems owing to the capability of handling nonconvex formulations. However,
the fixed computation structure of existing deep neural networks (DNNs) lacks
flexibility with respect to the system size, i.e., the number of antennas or
users. This paper develops a bipartite graph neural network (BGNN) framework, a
scalable DL solution designed for multi-antenna beamforming optimization. The
MU-MISO system is first characterized by a bipartite graph where two disjoint
vertex sets, each of which consists of transmit antennas and users, are
connected via pairwise edges. These vertex interconnection states are modeled
by channel fading coefficients. Thus, a generic beamforming optimization
process is interpreted as a computation task over a weight bipartite graph.
This approach partitions the beamforming optimization procedure into multiple
suboperations dedicated to individual antenna vertices and user vertices.
Separated vertex operations lead to scalable beamforming calculations that are
invariant to the system size. The vertex operations are realized by a group of
DNN modules that collectively form the BGNN architecture. Identical DNNs are
reused at all antennas and users so that the resultant learning structure
becomes flexible to the network size. Component DNNs of the BGNN are trained
jointly over numerous MU-MISO configurations with randomly varying network
sizes. As a result, the trained BGNN can be universally applied to arbitrary
MU-MISO systems. Numerical results validate the advantages of the BGNN
framework over conventional methods.
- Abstract(参考訳): 深層学習(DL)技術は, マルチユーザマルチインプット・シングルアウトプット(MU-MISO)ダウンリンクシステムの最適化のために, 非凸定式化を扱う能力により, 集中的に研究されている。
しかし、既存のディープニューラルネットワーク(DNN)の固定された計算構造は、システムサイズ、すなわちアンテナ数やユーザ数に関して柔軟性に欠ける。
本稿では、マルチアンテナビームフォーミング最適化のために設計されたスケーラブルなDLソリューションであるBGNNフレームワークを開発する。
MU-MISO システムは,送信アンテナとユーザから構成される2つの非結合頂点集合をペアエッジで接続する二部グラフを特徴とする。
これらの頂点相互接続状態はチャネルフェージング係数によってモデル化される。
これにより、一般的なビームフォーミング最適化プロセスは、重み2部グラフ上の計算タスクとして解釈される。
このアプローチではビームフォーミング最適化手順を、個々のアンテナ頂点とユーザ頂点に特化した複数のサブオペレーションに分割する。
別個の頂点演算は、システムサイズに不変なスケーラブルなビームフォーミング計算をもたらす。
頂点演算は、BGNNアーキテクチャを構成するDNNモジュールのグループによって実現される。
同一のDNNは、すべてのアンテナとユーザで再利用され、学習構造がネットワークサイズに柔軟になる。
BGNNのコンポーネントDNNは、ランダムに異なるネットワークサイズを持つ多数のMU-MISO構成に対して共同で訓練される。
その結果、訓練されたBGNNは任意のMU-MISOシステムに普遍的に適用できる。
数値結果は従来の手法よりもbgnnフレームワークの利点を検証している。
関連論文リスト
- MG-GNN: Multigrid Graph Neural Networks for Learning Multilevel Domain
Decomposition Methods [0.0]
2レベル領域分割法において最適化されたパラメータを学習するためのマルチグリッドグラフニューラルネットワーク(MG-GNN)を提案する。
MG-GNNは、この最適化のために人気のある階層グラフネットワークアーキテクチャよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-26T19:44:45Z) - PIGEON: Optimizing CUDA Code Generator for End-to-End Training and
Inference of Relational Graph Neural Networks [15.79269735529738]
プログラミングインターフェースとカーネルAPIのギャップを埋めるために、Pigeonを提案する。
1つの汎用行列乗算(GEMM)テンプレートとノード/エッジテンプレート上に構築することで、ピジョンは推論の7.8倍のスピードアップとトレーニングの5.6倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2023-01-16T06:53:18Z) - Learning Cooperative Beamforming with Edge-Update Empowered Graph Neural
Networks [29.23937571816269]
グラフエッジ上での協調ビームフォーミングを学習するためのエッジグラフニューラルネットワーク(Edge-GNN)を提案する。
提案したEdge-GNNは、最先端の手法よりも計算時間をはるかに短くして、より高い和率を達成する。
論文 参考訳(メタデータ) (2022-11-23T02:05:06Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Meta-Aggregator: Learning to Aggregate for 1-bit Graph Neural Networks [127.32203532517953]
我々は,GNNパラメータとグラフ特徴をバイナライズするバニラ1ビットフレームワークを開発した。
軽量なアーキテクチャにもかかわらず、我々はこのバニラフレームワークがグラフトポロジを区別するのに十分な差別力に悩まされていることを観察した。
この発見は、バニラ二項化GNNの表現力を向上させるためにメタアグリゲータを考案する動機となる。
論文 参考訳(メタデータ) (2021-09-27T08:50:37Z) - Neural Calibration for Scalable Beamforming in FDD Massive MIMO with
Implicit Channel Estimation [10.775558382613077]
チャネル推定とビームフォーミングは、周波数分割二重化(FDD)大規模マルチインプット多重出力(MIMO)システムにおいて重要な役割を果たす。
受信したアップリンクパイロットに応じて,基地局のビームフォーマを直接最適化する深層学習方式を提案する。
エンド・ツー・エンドの設計のスケーラビリティを向上させるために,ニューラルキャリブレーション法を提案する。
論文 参考訳(メタデータ) (2021-08-03T14:26:14Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - An Uncoupled Training Architecture for Large Graph Learning [20.784230322205232]
グラフデータをグリッドライクなデータに埋め込むための、柔軟なアンカップリングトレーニングフレームワークであるNode2Gridsを紹介します。
各ノードの影響を次々にランク付けすることで、Node2Gridsは最も影響力のある1階と、中央ノードの融合情報を持つ2階の隣人を選択する。
下流タスクの効率をさらに向上するために、単純なCNNベースのニューラルネットワークを使用して、マッピングされたグリッドのようなデータから重要な情報をキャプチャする。
論文 参考訳(メタデータ) (2020-03-21T11:49:16Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。