論文の概要: Aergia: Leveraging Heterogeneity in Federated Learning Systems
- arxiv url: http://arxiv.org/abs/2210.06154v1
- Date: Wed, 12 Oct 2022 12:59:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 15:57:00.925582
- Title: Aergia: Leveraging Heterogeneity in Federated Learning Systems
- Title(参考訳): aergia: フェデレーション学習システムにおける多様性の活用
- Authors: Bart Cox, Lydia Y. Chen, J\'er\'emie Decouchant
- Abstract要約: フェデレートラーニング(FL)は、クライアントを頼りに、ローカルデータセットを使用してグローバルモデルを更新する。
Aergiaは、遅いクライアントがトレーニングで最も計算集約的なモデルの一部を凍結する、新しいアプローチである。
AergiaはFedAvgとTiFLと比較して、異種条件下でのトレーニング時間を最大27%と53%と大幅に短縮する。
- 参考スコア(独自算出の注目度): 5.0650178943079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a popular approach for distributed deep learning
that prevents the pooling of large amounts of data in a central server. FL
relies on clients to update a global model using their local datasets.
Classical FL algorithms use a central federator that, for each training round,
waits for all clients to send their model updates before aggregating them. In
practical deployments, clients might have different computing powers and
network capabilities, which might lead slow clients to become performance
bottlenecks. Previous works have suggested to use a deadline for each learning
round so that the federator ignores the late updates of slow clients, or so
that clients send partially trained models before the deadline. To speed up the
training process, we instead propose Aergia, a novel approach where slow
clients (i) freeze the part of their model that is the most computationally
intensive to train; (ii) train the unfrozen part of their model; and (iii)
offload the training of the frozen part of their model to a faster client that
trains it using its own dataset. The offloading decisions are orchestrated by
the federator based on the training speed that clients report and on the
similarities between their datasets, which are privately evaluated thanks to a
trusted execution environment. We show through extensive experiments that
Aergia maintains high accuracy and significantly reduces the training time
under heterogeneous settings by up to 27% and 53% compared to FedAvg and TiFL,
respectively.
- Abstract(参考訳): Federated Learning(FL)は、分散ディープラーニングの一般的なアプローチであり、中央サーバにおける大量のデータのプールを防止する。
FLはクライアントに頼って、ローカルデータセットを使用してグローバルモデルを更新する。
従来のflアルゴリズムでは、各トレーニングラウンド毎に、すべてのクライアントがモデル更新を集約する前に送信するのを待つ中央フェデレータを使用する。
実際のデプロイメントでは、クライアントは異なるコンピューティング能力とネットワーク能力を持っているため、遅いクライアントはパフォーマンスのボトルネックになる可能性がある。
以前の作業では、各学習ラウンドにデッドラインを使用することで、フェデレーターが遅いクライアントの更新の遅れを無視したり、クライアントが期限前に部分的にトレーニングされたモデルを送信するように提案されている。
トレーニングプロセスをスピードアップするため,我々は,遅いクライアントを対象とする新しいアプローチであるaergiaを提案する。
i) 訓練に最も計算集約的なモデルの部分を凍結すること。
(ii)模型の未完成部分を訓練すること。
(iii) モデルの凍結した部分のトレーニングを、独自のデータセットを使用してトレーニングするより高速なクライアントにオフロードする。
オフロード決定は、クライアントがレポートするトレーニング速度と、信頼できる実行環境によってプライベートに評価されるデータセット間の類似性に基づいて、フェデレータによって編成される。
Aergiaは高い精度を維持し,FedAvgとTiFLと比較して,異種環境下でのトレーニング時間を最大27%,53%削減できることを示す。
関連論文リスト
- Prune at the Clients, Not the Server: Accelerated Sparse Training in Federated Learning [56.21666819468249]
クライアントのリソース制約と通信コストは、フェデレートラーニングにおける大規模モデルのトレーニングに大きな問題を引き起こす。
Sparse-ProxSkipを導入し、スパース環境でのトレーニングとアクセラレーションを組み合わせた。
Sparse-ProxSkipの優れた性能を広範な実験で実証する。
論文 参考訳(メタデータ) (2024-05-31T05:21:12Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Achieving Linear Speedup in Asynchronous Federated Learning with
Heterogeneous Clients [30.135431295658343]
フェデレートラーニング(FL)は、異なるクライアントにローカルに保存されているデータを交換したり転送したりすることなく、共通のグローバルモデルを学ぶことを目的としている。
本稿では,DeFedAvgという,効率的な連邦学習(AFL)フレームワークを提案する。
DeFedAvgは、望まれる線形スピードアップ特性を達成する最初のAFLアルゴリズムであり、高いスケーラビリティを示している。
論文 参考訳(メタデータ) (2024-02-17T05:22:46Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - Faster Federated Learning with Decaying Number of Local SGD Steps [23.447883712141422]
InNIST Learning (FL)デバイスは、プライベートデータを中央または他のクライアントと共有することなく、機械学習モデルを協調的にトレーニングする。
本稿では、FLモデルの最終的な性能を共同で向上させる訓練が進むにつれて、$K$を提案する。
論文 参考訳(メタデータ) (2023-05-16T17:36:34Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Latency Aware Semi-synchronous Client Selection and Model Aggregation
for Wireless Federated Learning [0.6882042556551609]
Federated Learning(FL)は、機械学習モデルのトレーニングプロセスに参加するために異なるクライアント(IoTデバイスなど)を必要とする、協調的な機械学習フレームワークである。
従来のFLプロセスは、異種クライアント設定のストラグラー問題に悩まされる可能性がある。
本稿では,すべてのクライアントがFLプロセス全体に参加することができるが周波数の異なるフェデレートリールネーリング(LESSON)法に対して,セミ同期クライアント選択とmOdelアグリゲーションアグリゲーションを提案する。
論文 参考訳(メタデータ) (2022-10-19T05:59:22Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。