論文の概要: How Does Cell-Free Massive MIMO Support Multiple Federated Learning
Groups?
- arxiv url: http://arxiv.org/abs/2107.09577v1
- Date: Tue, 20 Jul 2021 15:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 14:43:20.309879
- Title: How Does Cell-Free Massive MIMO Support Multiple Federated Learning
Groups?
- Title(参考訳): 細胞フリーのMIMOは、どのように複数のフェデレーション学習グループをサポートするか?
- Authors: Tung T. Vu, Hien Quoc Ngo, Thomas L. Marzetta, Michail Matthaiou
- Abstract要約: 本研究では,複数のFLプロセスの安定動作を保証するために,セルフリーなマルチインプット多重出力(MIMO)ネットワークを提案する。
次に、マルチキャストダウンリンクおよび従来のアップリンク送信プロトコルの下でFLプロセスの繰り返しを非同期に実行する新しいスキームを開発する。
- 参考スコア(独自算出の注目度): 42.63398054091038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has been considered as a promising learning framework
for future machine learning systems due to its privacy preservation and
communication efficiency. In beyond-5G/6G systems, it is likely to have
multiple FL groups with different learning purposes. This scenario leads to a
question: How does a wireless network support multiple FL groups? As an answer,
we first propose to use a cell-free massive multiple-input multiple-output
(MIMO) network to guarantee the stable operation of multiple FL processes by
letting the iterations of these FL processes be executed together within a
large-scale coherence time. We then develop a novel scheme that asynchronously
executes the iterations of FL processes under multicasting downlink and
conventional uplink transmission protocols. Finally, we propose a
simple/low-complexity resource allocation algorithm which optimally chooses the
power and computation resources to minimize the execution time of each
iteration of each FL process.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、プライバシー保護と通信効率のため、将来の機械学習システムにとって有望な学習フレームワークとみなされてきた。
beyond-5g/6gシステムでは、学習目的が異なる複数のflグループを持つ可能性が高い。
ワイヤレスネットワークは、複数のflグループをどのようにサポートするのか?
まず,セルレス大規模マルチインプットマルチアウトプット(MIMO)ネットワークを用いて,これらのFLプロセスの繰り返しを大規模コヒーレンス時間内に一緒に実行させることで,複数のFLプロセスの安定した動作を保証することを提案する。
次に、マルチキャストダウンリンクおよび従来のアップリンク送信プロトコルの下でFLプロセスの繰り返しを非同期に実行する新しいスキームを開発する。
最後に,各FLプロセスの各イテレーションの実行時間を最小限に抑えるため,電力と計算資源を最適に選択する,単純/低複雑さリソース割り当てアルゴリズムを提案する。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Joint Energy and Latency Optimization in Federated Learning over Cell-Free Massive MIMO Networks [36.6868658064971]
Federated Learning(FL)は、ユーザが生のデータセットではなくサーバとFLモデルを交換する分散学習パラダイムである。
セルフリーの大規模マルチインプット多重出力(CFmMIMO)はFLを実装する上で有望なアーキテクチャである。
本稿では、各ユーザの電力が他のユーザのエネルギーとレイテンシに与える影響を考慮し、FLにおけるCFmMIMO上のアップリンク電力割り当て方式を提案する。
論文 参考訳(メタデータ) (2024-04-28T19:24:58Z) - FedMultimodal: A Benchmark For Multimodal Federated Learning [45.0258566979478]
フェデレートラーニング(FL)は、データプライバシの課題に取り組むための、新たな機械学習技術になりつつある。
コンピュータビジョン、オーディオ、自然言語処理などの分野でFLに多大な努力を払っているにもかかわらず、マルチモーダルデータストリームを利用したFLアプリケーションは、ほとんど探索されていない。
FedMultimodalは10個の一般的なデータセットから5つの代表的マルチモーダルアプリケーションをカバーするマルチモーダル学習のための最初のFLベンチマークである。
論文 参考訳(メタデータ) (2023-06-15T20:31:26Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Confederated Learning: Federated Learning with Decentralized Edge
Servers [42.766372620288585]
Federated Learning(FL)は、中央サーバでデータを集約することなく、モデルトレーニングを達成可能な、新興の機械学習パラダイムである。
本稿では,各サーバが個々のデバイスに接続されたConFederated Learning(CFL)フレームワークを提案する。
提案アルゴリズムはランダムなスケジューリングポリシを用いて,各イテレーションで各サーバにアクセスするデバイスサブセットをランダムに選択する。
論文 参考訳(メタデータ) (2022-05-30T07:56:58Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Papaya: Practical, Private, and Scalable Federated Learning [6.833772874570774]
クロスデバイス・フェデレーション・ラーニング(FL)は分散学習パラダイムであり、いくつかの課題がある。
文献で説明されているほとんどのFLシステムは同期であり、個々のクライアントからモデル更新を同期で集約します。
本稿では,実運用における非同期FLシステムの設計について概説する。
論文 参考訳(メタデータ) (2021-11-08T23:46:42Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。