論文の概要: FedEL: Federated Elastic Learning for Heterogeneous Devices
- arxiv url: http://arxiv.org/abs/2509.16902v1
- Date: Sun, 21 Sep 2025 03:25:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.030131
- Title: FedEL: Federated Elastic Learning for Heterogeneous Devices
- Title(参考訳): FedEL: 不均一デバイスのためのフェデレーション・エラスティックラーニング
- Authors: Letian Zhang, Bo Chen, Jieming Bian, Lei Wang, Jie Xu,
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを維持しながら、分散デバイスが機械学習モデルを協調的にトレーニングすることを可能にする。
クライアントの選択、非同期FL、部分的なトレーニングといった既存のソリューションは、これらの課題に部分的に対処するが、精度の低下、古い更新、一貫性のないトレーニングコントリビューションによるモデルパフォーマンスの妥協といった問題に直面する。
モデル精度を維持しながらトレーニング効率を向上させるための,連合型弾性学習フレームワークであるFedELを提案する。
- 参考スコア(独自算出の注目度): 14.499606660793239
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables distributed devices to collaboratively train machine learning models while maintaining data privacy. However, the heterogeneous hardware capabilities of devices often result in significant training delays, as straggler clients with limited resources prolong the aggregation process. Existing solutions such as client selection, asynchronous FL, and partial training partially address these challenges but encounter issues such as reduced accuracy, stale updates, and compromised model performance due to inconsistent training contributions. To overcome these limitations, we propose FedEL, a federated elastic learning framework that enhances training efficiency while maintaining model accuracy. FedEL introduces a novel window-based training process, sliding the window to locate the training part of the model and dynamically selecting important tensors for training within a coordinated runtime budget. This approach ensures progressive and balanced training across all clients, including stragglers. Additionally, FedEL employs a tensor importance adjustment module, harmonizing local and global tensor importance to mitigate biases caused by data heterogeneity. The experiment results show that FedEL achieves up to 3.87x improvement in time-to-accuracy compared to baselines while maintaining or exceeding final test accuracy.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを維持しながら、分散デバイスが機械学習モデルを協調的にトレーニングすることを可能にする。
しかしながら、デバイスの不均一なハードウェア能力は、限られたリソースを持つストラグラークライアントが集約プロセスを長引かせるため、トレーニングの遅延を生じさせることが多い。
クライアントの選択、非同期FL、部分的なトレーニングといった既存のソリューションは、これらの課題に部分的に対処するが、精度の低下、古い更新、一貫性のないトレーニングコントリビューションによるモデルパフォーマンスの妥協といった問題に直面する。
これらの制約を克服するために,モデルの精度を維持しながらトレーニング効率を向上させるための,連合型弾性学習フレームワークであるFedELを提案する。
FedELは、新しいウィンドウベースのトレーニングプロセスを導入し、ウィンドウをスライドしてモデルのトレーニング部分を特定し、調整されたランタイム予算内でトレーニングのための重要なテンソルを動的に選択する。
このアプローチは、ストラグラーを含むすべてのクライアントに対して、プログレッシブでバランスの取れたトレーニングを保証する。
さらに、FedELはテンソル重要度調整モジュールを使用し、局所的および大域的テンソル重要度を調和させて、データ不均一性によるバイアスを軽減する。
実験結果から,FedELは最終試験精度を維持したり超えたりしながら,ベースラインに比べて最大3.87倍の精度向上を実現していることがわかった。
関連論文リスト
- Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - FLuID: Mitigating Stragglers in Federated Learning using Invariant
Dropout [1.8262547855491458]
Federated Learningは、機械学習モデルが個々のモバイルデバイス上でローカルにトレーニングし、共有サーバを介してモデルの更新を同期することを可能にする。
結果として、性能の低いストラグラーデバイスは、FLにおける全体的なトレーニング時間を規定することが多い。
Invariant Dropoutは,重み更新しきい値に基づいてサブモデルを抽出する手法である。
Invariant Dropout を用いた適応学習フレームワークであるFederated Learning を開発した。
論文 参考訳(メタデータ) (2023-07-05T19:53:38Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Stochastic Coded Federated Learning: Theoretical Analysis and Incentive
Mechanism Design [18.675244280002428]
我々は、コード化されたコンピューティング技術を活用する新しいFLフレームワーク、コード付きフェデレーションラーニング(SCFL)を提案する。
SCFLでは、各エッジデバイスがプライバシを保存するコード化されたデータセットをサーバにアップロードする。
SCFLは、与えられた時間内でより良いモデルを学び、ベースライン方式よりも優れたプライバシーとパフォーマンスのトレードオフを実現する。
論文 参考訳(メタデータ) (2022-11-08T09:58:36Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。