論文の概要: Over-The-Air Clustered Wireless Federated Learning
- arxiv url: http://arxiv.org/abs/2211.03363v1
- Date: Mon, 7 Nov 2022 08:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:06:08.053841
- Title: Over-The-Air Clustered Wireless Federated Learning
- Title(参考訳): 遠隔クラスタ型無線フェデレート学習
- Authors: Ayush Madhan-Sohini, Divin Dominic, Nazreen Shah, Ranjitha Prasad
- Abstract要約: 本稿では,CWFL(Over-the-air clustered Wireless FL)戦略を提案する。
CWFLはサーバベースの戦略と同様の精度を達成し、分散FLに比べてチャネル使用量が少ない。
- 参考スコア(独自算出の注目度): 4.0527583944137255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy, security, and bandwidth constraints have led to federated learning
(FL) in wireless systems, where training a machine learning (ML) model is
accomplished collaboratively without sharing raw data. Often, such
collaborative FL strategies necessitate model aggregation at a server. On the
other hand, decentralized FL necessitates that participating clients reach a
consensus ML model by exchanging parameter updates. In this work, we propose
the over-the-air clustered wireless FL (CWFL) strategy, which eliminates the
need for a strong central server and yet achieves an accuracy similar to the
server-based strategy while using fewer channel uses as compared to
decentralized FL. We theoretically show that the convergence rate of CWFL per
cluster is O(1/T) while mitigating the impact of noise. Using the MNIST and
CIFAR datasets, we demonstrate the accuracy performance of CWFL for the
different number of clusters across communication rounds.
- Abstract(参考訳): プライバシ、セキュリティ、帯域幅の制約により、無線システムにおけるフェデレーション学習(FL)は、生データを共有せずに機械学習(ML)モデルのトレーニングを共同で行うことができる。
このようなコラボレーティブなFL戦略は、しばしば、サーバでのモデルアグリゲーションを必要とします。
一方、分散flでは、参加者の顧客はパラメータ更新を交換することでコンセンサスmlモデルに到達する必要がある。
本研究では,集中型無線FL (CWFL) 戦略を提案する。これは集中型サーバの必要性を排除し,サーバベースの戦略と同様の精度を達成できるが,分散型FLに比べてチャネル使用率が少ない。
理論的には,クラスタ毎のCWFLの収束速度はO(1/T)であり,ノイズの影響を緩和する。
MNIST と CIFAR のデータセットを用いて,通信ラウンド毎に異なるクラスタ数に対して,CWFL の精度性能を示す。
関連論文リスト
- Smart Sampling: Helping from Friendly Neighbors for Decentralized Federated Learning [10.917048408073846]
分散FL(DFL)における近傍のサンプリングと集約のための簡易かつ効率的なアルゴリズムであるAFIND+を導入する。
AFIND+は有用な隣人を識別し、選択された隣人の数を適応的に調整し、サンプルされた隣人のモデルを戦略的に集約する。
実世界のデータセットの数値的な結果は、AFIND+がDFLの他のサンプリングアルゴリズムより優れていることを示している。
論文 参考訳(メタデータ) (2024-07-05T12:10:54Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - FLCC: Efficient Distributed Federated Learning on IoMT over CSMA/CA [0.0]
フェデレートラーニング(FL)は、プライバシー保護のための有望なアプローチとして登場した。
本稿では,アドホックネットワーク上で遠隔医療システムを改善するアプリケーションにおけるFLの性能について検討する。
ネットワーク性能を評価するための指標として,1) 干渉を最小限に抑えながら伝送を成功させる確率,2) 精度と損失の点で分散FLモデルの性能を示す。
論文 参考訳(メタデータ) (2023-03-29T16:36:42Z) - Communication and Storage Efficient Federated Split Learning [19.369076939064904]
Federated Split LearningはFLの並列モデルトレーニング原則を保存する。
サーバはクライアントごとに別々のモデルをメンテナンスしなければなりません。
本稿では,コミュニケーションと記憶の効率的なフェデレーションと分割学習戦略を提案する。
論文 参考訳(メタデータ) (2023-02-11T04:44:29Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - RC-SSFL: Towards Robust and Communication-efficient Semi-supervised
Federated Learning System [25.84191221776459]
Federated Learning(FL)は、新たな分散型人工知能パラダイムである。
現在のシステムは、強い前提に大きく依存している: すべてのクライアントは、豊富な真実をラベル付けしたデータを持っている。
実用的ロバスト・コミュニケーション効率の高い半監視FL(RC-SSFL)システム設計を紹介します。
論文 参考訳(メタデータ) (2020-12-08T14:02:56Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z) - Coded Federated Learning [5.375775284252717]
フェデレートラーニング(Federated Learning)とは、クライアントデバイスに分散した分散データからグローバルモデルをトレーニングする手法である。
この結果から,CFLでは,符号化されていない手法に比べて,大域的モデルを約4倍の速度で収束させることができることがわかった。
論文 参考訳(メタデータ) (2020-02-21T23:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。