論文の概要: Speed Up Federated Learning in Heterogeneous Environment: A Dynamic
Tiering Approach
- arxiv url: http://arxiv.org/abs/2312.05642v1
- Date: Sat, 9 Dec 2023 19:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 19:36:18.221811
- Title: Speed Up Federated Learning in Heterogeneous Environment: A Dynamic
Tiering Approach
- Title(参考訳): ヘテロジニアス環境におけるフェデレーション学習の高速化:動的階層化アプローチ
- Authors: Seyed Mahmoud Sajjadi Mohammadabadi, Syed Zawad, Feng Yan, and Lei
Yang
- Abstract要約: フェデレートラーニング(FL)は、トレーニングデータを分散化してプライベートにしながら、モデルを協調的にトレーニングすることを可能にする。
FLを用いたモデルのトレーニングにおける重要な障害の1つは、様々なタスクサイズだけでなく、不均一な計算と通信能力を持つデバイスのリソース制約である。
本稿では、動的タイリングに基づくフェデレート学習(DTFL)システムを提案する。このシステムでは、遅いクライアントがモデルの一部を動的にサーバにオフロードし、リソース制約を緩和し、トレーニングを高速化する。
- 参考スコア(独自算出の注目度): 5.504000607257414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables collaboratively training a model while
keeping the training data decentralized and private. However, one significant
impediment to training a model using FL, especially large models, is the
resource constraints of devices with heterogeneous computation and
communication capacities as well as varying task sizes. Such heterogeneity
would render significant variations in the training time of clients, resulting
in a longer overall training time as well as a waste of resources in faster
clients. To tackle these heterogeneity issues, we propose the Dynamic
Tiering-based Federated Learning (DTFL) system where slower clients dynamically
offload part of the model to the server to alleviate resource constraints and
speed up training. By leveraging the concept of Split Learning, DTFL offloads
different portions of the global model to clients in different tiers and
enables each client to update the models in parallel via local-loss-based
training. This helps reduce the computation and communication demand on
resource-constrained devices and thus mitigates the straggler problem. DTFL
introduces a dynamic tier scheduler that uses tier profiling to estimate the
expected training time of each client, based on their historical training time,
communication speed, and dataset size. The dynamic tier scheduler assigns
clients to suitable tiers to minimize the overall training time in each round.
We first theoretically prove the convergence properties of DTFL. We then train
large models (ResNet-56 and ResNet-110) on popular image datasets (CIFAR-10,
CIFAR-100, CINIC-10, and HAM10000) under both IID and non-IID systems.
Extensive experimental results show that compared with state-of-the-art FL
methods, DTFL can significantly reduce the training time while maintaining
model accuracy.
- Abstract(参考訳): フェデレーション学習(fl)は、トレーニングデータを分散し、プライベートに保ちながら、協調的にモデルをトレーニングすることを可能にする。
しかしながら、flを用いたモデル、特に大規模モデルを用いたモデルのトレーニングにおける重要な障害のひとつは、異種計算と通信能力を持つデバイスのリソース制約と、タスクサイズの違いである。
このような不均一性は、クライアントのトレーニング時間に大きな変化をもたらし、結果として、トレーニング時間が長くなり、より高速なクライアントにリソースを浪費することになります。
このような不均一性問題に対処するため,より遅いクライアントがモデルの一部を動的にサーバにオフロードし,リソース制約を緩和し,トレーニングを高速化する動的階層型フェデレートラーニング(DTFL)システムを提案する。
Split Learningの概念を活用することで、DTFLはグローバルモデルのさまざまな部分を異なる階層のクライアントにオフロードし、各クライアントがローカルロスベースのトレーニングを通じてモデルを並列に更新することができる。
これにより、リソース制約のあるデバイスにおける計算と通信の要求を低減し、ストラグラー問題を軽減できる。
DTFLは動的階層スケジューラを導入し、各クライアントのトレーニング時間、通信速度、データセットサイズに基づいて、階層プロファイリングを使用して予測されるトレーニング時間を推定する。
dynamic tier schedulerは、各ラウンドのトレーニング時間を最小化するために、クライアントを適切なティアに割り当てる。
まず、DTFLの収束特性を理論的に証明する。
次に、IIDおよび非IIDシステムの両方で、人気のある画像データセット(CIFAR-10、CIFAR-100、CINIC-10、HAM10000)上で、大規模なモデル(ResNet-56、ResNet-110)をトレーニングする。
その結果,最新のFL法と比較して,DTFLはモデルの精度を維持しながらトレーニング時間を著しく短縮できることがわかった。
関連論文リスト
- Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - NeFL: Nested Model Scaling for Federated Learning with System Heterogeneous Clients [44.89061671579694]
フェデレートラーニング(FL)は、データのプライバシを保ちながら分散トレーニングを可能にするが、ストラグラーのスローあるいは無効なクライアントは、トレーニング時間を大幅に短縮し、パフォーマンスを低下させる。
深層ニューラルネットワークを深層スケールと幅ワイドスケーリングの両方を用いてサブモデルに効率的に分割するフレームワークであるネスト付きフェデレーションラーニング(NeFL)を提案する。
NeFLは、特に最低ケースのサブモデルでは、ベースラインアプローチに比べてパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-08-15T13:29:14Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - DynamicFL: Balancing Communication Dynamics and Client Manipulation for
Federated Learning [6.9138560535971605]
Federated Learning(FL)は、数百万のエッジデバイスにわたる分散データを活用することで、グローバルモデルをトレーニングすることを目的としている。
地理的に分散したエッジデバイスと非常にダイナミックなネットワークが混在していることを考えると、参加するデバイスからすべてのモデル更新を集約すると、FLでは必然的な長期遅延が発生する。
本稿では,クライアント操作戦略を特別に設計した大規模エッジデバイスにおける通信力学とデータ品質を考慮した新しいFLフレームワークであるDynamicFLを提案する。
論文 参考訳(メタデータ) (2023-07-16T19:09:31Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z) - Coded Federated Learning [5.375775284252717]
フェデレートラーニング(Federated Learning)とは、クライアントデバイスに分散した分散データからグローバルモデルをトレーニングする手法である。
この結果から,CFLでは,符号化されていない手法に比べて,大域的モデルを約4倍の速度で収束させることができることがわかった。
論文 参考訳(メタデータ) (2020-02-21T23:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。