論文の概要: Protea: Client Profiling within Federated Systems using Flower
- arxiv url: http://arxiv.org/abs/2207.01053v1
- Date: Sun, 3 Jul 2022 14:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 09:16:25.632443
- Title: Protea: Client Profiling within Federated Systems using Flower
- Title(参考訳): protea: flowerを用いたフェデレーションシステム内のクライアントプロファイリング
- Authors: Wanru Zhao, Xinchi Qiu, Javier Fernandez-Marques, Pedro P. B. de
Gusm\~ao, Nicholas D. Lane
- Abstract要約: FLフレームワークFlowerを用いて、フェデレーションシステム内でフレキシブルで軽量なクライアントプロファイリングコンポーネントであるProteaを設計、実装する。
システムレベルの統計を自動的に収集し、各クライアントに必要なリソースを推定し、リソースを意識してシミュレーションを実行することができる。
- 参考スコア(独自算出の注目度): 10.999800842836512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has emerged as a prospective solution that
facilitates the training of a high-performing centralised model without
compromising the privacy of users. While successful, research is currently
limited by the possibility of establishing a realistic large-scale FL system at
the early stages of experimentation. Simulation can help accelerate this
process. To facilitate efficient scalable FL simulation of heterogeneous
clients, we design and implement Protea, a flexible and lightweight client
profiling component within federated systems using the FL framework Flower. It
allows automatically collecting system-level statistics and estimating the
resources needed for each client, thus running the simulation in a
resource-aware fashion. The results show that our design successfully increases
parallelism for 1.66 $\times$ faster wall-clock time and 2.6$\times$ better GPU
utilisation, which enables large-scale experiments on heterogeneous clients.
- Abstract(参考訳): フェデレートラーニング(FL)は,ユーザのプライバシを損なうことなく,ハイパフォーマンスな集中モデルのトレーニングを容易にする,先進的なソリューションとして登場した。
研究は成功したものの、実験の初期段階で現実的な大規模FLシステムを構築する可能性によって制限されている。
シミュレーションはこのプロセスを加速するのに役立ちます。
ヘテロジニアスクライアントの効率的な fl シミュレーションを容易にするために,fl framework flower を用いて,フレキシブルで軽量なクライアントプロファイリングコンポーネント protea を設計し,実装する。
システムレベルの統計を自動的に収集し、各クライアントに必要なリソースを推定し、リソースを意識してシミュレーションを実行する。
以上の結果から,我々の設計は並列性を1.66$\times$高速ウォールクロックと2.6$\times$優れたGPU利用で向上させることができた。
関連論文リスト
- Embracing Federated Learning: Enabling Weak Client Participation via Partial Model Training [21.89214794178211]
フェデレートラーニング(FL)では、クライアントは完全なモデルをトレーニングしたり、メモリ空間に保持することができない弱いデバイスを持っているかもしれない。
我々は、すべての利用可能なクライアントが分散トレーニングに参加することを可能にする、一般的なFLフレームワークであるEnbracingFLを提案する。
実験により,FL の導入は,すべてのクライアントが強力であるように常に高い精度を達成し,最先端の幅削減手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-21T13:19:29Z) - Apodotiko: Enabling Efficient Serverless Federated Learning in Heterogeneous Environments [40.06788591656159]
Federated Learning(FL)は、分散クライアント間で共有グローバルモデルの協調トレーニングを可能にする、新興の機械学習パラダイムである。
本稿では、サーバレスFL用に設計された新しい非同期トレーニング戦略であるApodotikoを紹介する。
我々の戦略には、各クライアントのハードウェア能力とデータセットサイズを評価して、トレーニングラウンド毎にクライアントをインテリジェントに優先順位付けし、選択するスコアリングメカニズムが組み込まれています。
論文 参考訳(メタデータ) (2024-04-22T09:50:11Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - FedML Parrot: A Scalable Federated Learning System via
Heterogeneity-aware Scheduling on Sequential and Hierarchical Training [32.365758195833195]
Federated Learning (FL)は、データプライバシを保護しながらマシンラーニングモデルをトレーニングするクライアント間のコラボレーションを可能にする。
既存のFLシミュレーションプラットフォームは、シミュレーションと運用の間の面倒なコードマイグレーション、低効率、低GPUユーティリティ、高いハードウェア要件を備えた低スケーラビリティ、ステートフルクライアントのシミュレーションの難しさに悩まされている。
本研究では,FLシミュレーションの課題とボトルネックを解明し,FedML texttParrotと名付けられた新しいFLシステムを設計する。
トレーニング効率を改善し、ハードウェアの要件を著しく緩和し、ステートフルクライアントによる大規模FL実験を効率的にサポートする。
論文 参考訳(メタデータ) (2023-03-03T08:36:35Z) - A Multi-agent Reinforcement Learning Approach for Efficient Client
Selection in Federated Learning [17.55163940659976]
Federated Learning(FL)は、クライアントデバイスが共有モデルを共同で学習することを可能にするトレーニングテクニックである。
モデル精度、処理遅延、通信効率を協調的に最適化する効率的なFLフレームワークを設計する。
実験により、FedMarlは処理遅延と通信コストを大幅に削減して、モデルの精度を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2022-01-09T05:55:17Z) - FedPrune: Towards Inclusive Federated Learning [1.308951527147782]
フェデレートラーニング(Federated Learning, FL)は、分散データの共有モデルをプライバシ保護形式でトレーニングする分散学習技術である。
我々は,この課題に対処するシステムであるFedPruneを提案する。
Central Limit Theoremからの洞察を利用することで、FedPruneは非IIDデータよりも堅牢なパフォーマンスを実現する新しい集約テクニックを取り入れている。
論文 参考訳(メタデータ) (2021-10-27T06:33:38Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。