論文の概要: SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks
- arxiv url: http://arxiv.org/abs/2203.14094v1
- Date: Sat, 26 Mar 2022 15:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:45:51.282129
- Title: SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks
- Title(参考訳): SlimFL: ニューラルネットワーク上の重ね合わせ符号化によるフェデレーション学習
- Authors: Won Joon Yun, Yunseok Kwak, Hankyul Baek, Soyi Jung, Mingyue Ji, Mehdi
Bennis, Jihong Park, and Joongheon Kim
- Abstract要約: フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
- 参考スコア(独自算出の注目度): 56.68149211499535
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) is a key enabler for efficient communication and
computing leveraging devices' distributed computing capabilities. However,
applying FL in practice is challenging due to the local devices' heterogeneous
energy, wireless channel conditions, and non-independently and identically
distributed (non-IID) data distributions. To cope with these issues, this paper
proposes a novel learning framework by integrating FL and width-adjustable
slimmable neural networks (SNN). Integrating FL with SNNs is challenging due to
time-varing channel conditions and data distributions. In addition, existing
multi-width SNN training algorithms are sensitive to the data distributions
across devices, which makes SNN ill-suited for FL. Motivated by this, we
propose a communication and energy-efficient SNN-based FL (named SlimFL) that
jointly utilizes superposition coding (SC) for global model aggregation and
superposition training (ST) for updating local models. By applying SC, SlimFL
exchanges the superposition of multiple width configurations decoded as many
times as possible for a given communication throughput. Leveraging ST, SlimFL
aligns the forward propagation of different width configurations while avoiding
inter-width interference during backpropagation. We formally prove the
convergence of SlimFL. The result reveals that SlimFL is not only
communication-efficient but also deals with the non-IID data distributions and
poor channel conditions, which is also corroborated by data-intensive
simulations.
- Abstract(参考訳): フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
しかし、実際にはflの適用は、ローカルデバイスの異種エネルギー、無線チャネル条件、非独立かつ同一に分散した(非iid)データ分布のため困難である。
本稿では,これらの問題に対処するために,FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
fl と snn の統合は、時間変数のチャネル条件とデータ分布のため、困難である。
さらに、既存のマルチ幅SNNトレーニングアルゴリズムはデバイス間のデータ分散に敏感であるため、FLには適さない。
そこで我々は,グローバルモデルアグリゲーションと重ね合わせトレーニング(ST)に重ね合わせ符号化(SC)を併用して局所モデルの更新を行う通信・エネルギー効率の高いSNNベースFL(SlimFL)を提案する。
SCを適用することで、SlimFLは、与えられた通信スループットに対して可能な限り複数の幅構成の重ね合わせを交換する。
stを活用することで、slimflは、バックプロパゲーション中の幅間干渉を避けながら、異なる幅構成の前方伝播を調整できる。
我々はSlimFLの収束を正式に証明する。
その結果,SlimFLは通信効率だけでなく,非IIDデータ分布や通信路条件も扱うことが明らかとなった。
関連論文リスト
- Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - FLCC: Efficient Distributed Federated Learning on IoMT over CSMA/CA [0.0]
フェデレートラーニング(FL)は、プライバシー保護のための有望なアプローチとして登場した。
本稿では,アドホックネットワーク上で遠隔医療システムを改善するアプリケーションにおけるFLの性能について検討する。
ネットワーク性能を評価するための指標として,1) 干渉を最小限に抑えながら伝送を成功させる確率,2) 精度と損失の点で分散FLモデルの性能を示す。
論文 参考訳(メタデータ) (2023-03-29T16:36:42Z) - Digital Over-the-Air Federated Learning in Multi-Antenna Systems [30.137208705209627]
デジタル変調とオーバー・ザ・エア計算(AirComp)を用いた現実的な無線通信システム上でのフェデレーション学習(FL)の性能最適化について検討する。
本稿では,デジタル変調とAirCompを組み合わせたFedAvg(FedAvg)アルゴリズムを提案する。
人工ニューラルネットワーク(ANN)は、すべてのデバイスの局所FLモデルを推定し、将来のモデル伝送のためにPSのビーム形成行列を調整するために使用される。
論文 参考訳(メタデータ) (2023-02-04T07:26:06Z) - CFLIT: Coexisting Federated Learning and Information Transfer [18.30671838758503]
本研究では,モバイルエッジネットワークにおける無線放送と従来型情報伝達(IT)の共存性について検討する。
FLとITデバイスがOFDMシステムで無線スペクトルを共有するCFLIT(Commanded Learning and Information Transfer)通信フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T13:17:28Z) - Communication and Energy Efficient Slimmable Federated Learning via
Superposition Coding and Successive Decoding [55.58665303852148]
フェデレートラーニング(FL)は、生データの代わりにローカルにトレーニングされたモデルを交換することで、プライベートデータを利用する大きな可能性を持っている。
我々はSlimFLという新しいエネルギー・通信効率のFLフレームワークを提案する。
SlimFLは0.5$xモデルと1.0$xモデルの両方を適切な精度と収束速度で同時に訓練できることを示す。
論文 参考訳(メタデータ) (2021-12-05T13:35:26Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Bayesian Federated Learning over Wireless Networks [87.37301441859925]
フェデレーションラーニングは、ローカルデバイスに保存された異種データセットを使用したプライバシー保護と分散トレーニング方法です。
本稿では、スケーラブルBFL (SBFL) と呼ばれる効率的な修正BFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-31T07:32:44Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。