論文の概要: Federated Learning for Hybrid Beamforming in mm-Wave Massive MIMO
- arxiv url: http://arxiv.org/abs/2005.09969v3
- Date: Sat, 22 Aug 2020 08:09:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-01 06:14:34.591614
- Title: Federated Learning for Hybrid Beamforming in mm-Wave Massive MIMO
- Title(参考訳): mm波質量MIMOにおけるハイブリッドビームフォーミングのフェデレーション学習
- Authors: Ahmet M. Elbir and Sinem Coleri
- Abstract要約: 本稿では,ハイブリッドビームフォーミングのためのFL(Federated Learning)ベースのフレームワークを紹介し,ベースステーションでモデルトレーニングを行う。
我々は、入力がチャネルデータである畳み込みニューラルネットワークを設計し、出力時にアナログビームフォーマを出力する。
FLは、チャネルデータの不完全性や破損に対してより寛容であり、CMLよりも透過オーバーヘッドが少ないことが示されている。
- 参考スコア(独自算出の注目度): 12.487990897680422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning for hybrid beamforming has been extensively studied by using
centralized machine learning (CML) techniques, which require the training of a
global model with a large dataset collected from the users. However, the
transmission of the whole dataset between the users and the base station (BS)
is computationally prohibitive due to limited communication bandwidth and
privacy concerns. In this work, we introduce a federated learning (FL) based
framework for hybrid beamforming, where the model training is performed at the
BS by collecting only the gradients from the users. We design a convolutional
neural network, in which the input is the channel data, yielding the analog
beamformers at the output. Via numerical simulations, FL is demonstrated to be
more tolerant to the imperfections and corruptions in the channel data as well
as having less transmission overhead than CML.
- Abstract(参考訳): ハイブリッドビームフォーミングのための機械学習は、ユーザから収集された大規模なデータセットを持つグローバルモデルのトレーニングを必要とする集中型機械学習(CML)技術を使用して、広範囲に研究されている。
しかし、ユーザとベースステーション(bs)間のデータセット全体の送信は、通信帯域幅の制限とプライバシの懸念により計算的に禁止される。
本研究では,ハイブリッドビームフォーミングのためのフェデレートラーニング(FL)ベースのフレームワークを導入し,ユーザからの勾配のみを収集してBSでモデルトレーニングを行う。
本研究では,入力がチャネルデータである畳み込みニューラルネットワークを設計し,その出力でアナログビームフォーマーを生成する。
数値シミュレーションにより、FLはチャネルデータの不完全性や破損に寛容であり、CMLよりも透過オーバーヘッドが少ないことが示されている。
関連論文リスト
- Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Federated Learning for Physical Layer Design [38.46522285374866]
Federated Learning (FL) は最近,分散学習スキームとして提案されている。
FLは集中型学習(CL)よりもコミュニケーション効率が高くプライバシーを保ちます。
本稿では,物理層設計問題に対するFLベーストレーニングの最近の進歩について論じる。
論文 参考訳(メタデータ) (2021-02-23T16:22:53Z) - Federated Dropout Learning for Hybrid Beamforming With Spatial Path
Index Modulation In Multi-User mmWave-MIMO Systems [19.10321102094638]
SPIM-MIMOシステムにおけるビームフォーマー設計のためのモデルベースおよびモデルフリーフレームワークを紹介します。
提案手法は,最新のSPIM-MIMO法やmmWave-MIMO法よりも高いスペクトル効率を示す。
論文 参考訳(メタデータ) (2021-02-15T10:49:26Z) - Bayesian Federated Learning over Wireless Networks [87.37301441859925]
フェデレーションラーニングは、ローカルデバイスに保存された異種データセットを使用したプライバシー保護と分散トレーニング方法です。
本稿では、スケーラブルBFL (SBFL) と呼ばれる効率的な修正BFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-31T07:32:44Z) - Federated Learning for Channel Estimation in Conventional and
RIS-Assisted Massive MIMO [12.487990897680422]
機械学習によるチャネル推定では、通常、受信したパイロット信号を入力として、チャネルデータを出力として含むデータセットのモデルトレーニングが必要となる。
以前の研究では、モデルトレーニングは主に中央集権学習(CL)を通じて行われ、トレーニングデータセット全体がベースステーション(BS)のユーザから収集される。
チャネル推定のためのフェデレートラーニング(FL)フレームワークを提案する。BSに送信することなく、ユーザのローカルデータセットに基づいてトレーニングされた畳み込みニューラルネットワーク(CNN)を設計する。
雑音および量子化モデル伝送の性能評価を行い,提案手法がCLの約16倍のオーバヘッドを提供することを示す。
論文 参考訳(メタデータ) (2020-08-25T06:51:18Z) - Distillation-Based Semi-Supervised Federated Learning for
Communication-Efficient Collaborative Training with Non-IID Private Data [8.935169114460663]
本研究では,主にインクリメンタルなコミュニケーションコストを克服するフェデレートラーニング(FL)フレームワークを開発する。
モバイル端末間でローカルモデルの出力を交換する蒸留に基づく半教師付きFLアルゴリズムを提案する。
DS-FLでは、通信コストはモデルの出力次元にのみ依存し、モデルサイズに応じてスケールアップしない。
論文 参考訳(メタデータ) (2020-08-14T03:47:27Z) - UVeQFed: Universal Vector Quantization for Federated Learning [179.06583469293386]
フェデレートラーニング(FL)は、ユーザがプライベートラベル付きデータを共有することなく、そのような学習モデルをトレーニングする、新たなアプローチである。
FLでは、各ユーザが学習モデルのコピーをローカルにトレーニングする。その後、サーバは個々の更新を収集し、それらをグローバルモデルに集約する。
普遍ベクトル量子化法をFLと組み合わせることで、訓練されたモデルの圧縮が最小歪みのみを誘導する分散トレーニングシステムが得られることを示す。
論文 参考訳(メタデータ) (2020-06-05T07:10:22Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。