論文の概要: Guess what? You can boost Federated Learning for free
- arxiv url: http://arxiv.org/abs/2110.11486v1
- Date: Thu, 21 Oct 2021 21:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 15:23:44.508795
- Title: Guess what? You can boost Federated Learning for free
- Title(参考訳): 何だって?
連合学習を無償で促進できます
- Authors: Akash Dhasade, Anne-Marie Kermarrec and Rafael Pires
- Abstract要約: フェデレートラーニング(FL)は、エッジデバイスの計算能力(通常は携帯電話)を利用して、データ生成場所を保ちながらプライバシに対処する。
FLは、アイテムレコメンデーション、仮想キーボード、テキスト自動補完サービスを改善するために、主要なサービスプロバイダによって使用されている。
本稿では,Gues and LearnアルゴリズムであるGeLを紹介し,各クライアントのモデル更新を推測することで収束を著しく高速化する。
- 参考スコア(独自算出の注目度): 1.2719327447589344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) exploits the computation power of edge devices,
typically mobile phones, while addressing privacy by letting data stay where it
is produced. FL has been used by major service providers to improve item
recommendations, virtual keyboards and text auto-completion services. While
appealing, FL performance is hampered by multiple factors: i) differing
capabilities of participating clients (e.g., computing power, memory and
network connectivity); ii) strict training constraints where devices must be
idle, plugged-in and connected to an unmetered WiFi; and iii) data
heterogeneity (a.k.a non-IIDness). Together, these lead to uneven
participation, straggling, dropout and consequently slow down convergence,
challenging the practicality of FL for many applications.
In this paper, we present GeL, the Guess and Learn algorithm, that
significantly speeds up convergence by guessing model updates for each client.
The power of GeL is to effectively perform ''free'' learning steps without any
additional gradient computations. GeL provides these guesses through clever use
of moments in the Adam optimizer in combination with the last computed gradient
on clients. Our extensive experimental study involving five standard FL
benchmarks shows that GeL speeds up the convergence up to 1.64x in
heterogeneous systems in the presence of data non-IIDness, saving tens of
thousands of gradient computations.
- Abstract(参考訳): フェデレートラーニング(FL)は、エッジデバイスの計算能力(通常は携帯電話)を利用して、データ生成場所を保ちながらプライバシに対処する。
FLは、アイテムレコメンデーション、仮想キーボード、テキスト自動補完サービスを改善するために、主要なサービスプロバイダによって使用されている。
魅力あるが、FLパフォーマンスは複数の要因によって妨げられている。
一 参加するクライアントの能力(例えば、計算能力、メモリ及びネットワーク接続性)の相違
二 デバイスをアイドルし、プラグインし、未測定のWiFiに接続しなければならない厳しい訓練制約
三 データの異質性(すなわち非IIDness)
これらが組み合わさって、不均一な参加、ストラグリング、ドロップアウト、結果として収束を遅くし、多くのアプリケーションにおいてFLの実践性に挑戦する。
本稿では,Gues and LearnアルゴリズムであるGeLを提案し,各クライアントのモデル更新を推測することで収束を著しく高速化する。
GeLのパワーは、追加の勾配計算なしで'free'学習ステップを効果的に実行することである。
GeLは、Adamオプティマイザにおけるモーメントの巧妙な使用と、クライアントの計算済みの勾配を組み合わせることで、これらの推測を提供する。
5つの標準FLベンチマークを含む広範な実験研究により、GeLはデータ非IIDネスの存在下で不均一系における収束を最大1.64倍に高速化し、数万の勾配計算を省いた。
関連論文リスト
- FLARE: A New Federated Learning Framework with Adjustable Learning Rates over Resource-Constrained Wireless Networks [20.048146776405005]
ワイヤレス・フェデレート・ラーニング(WFL)は、データ分散、計算能力、チャネル条件などにおいて不均一性に悩まされている。
本稿では,Federated Learning Adjusted lean ratE (FLR ratE)による新しいアイデアを提案する。
FLAREが一貫してベースラインを上回っている実験。
論文 参考訳(メタデータ) (2024-04-23T07:48:17Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Federated Learning with Flexible Control [30.65854375019346]
フェデレートラーニング(FL)は、ユーザが収集したローカルデータから分散モデルトレーニングを可能にする。
制約のあるリソースと潜在的に高いダイナミクスを持つ分散システムでは、例えばモバイルエッジネットワークでは、FLの効率が重要な問題である。
フレキシブルに調整可能な複数のオプションを持つFLアルゴリズムであるFlexFLを提案する。
論文 参考訳(メタデータ) (2022-12-16T14:21:29Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。