論文の概要: Communication-Efficient Federated Learning with Adaptive Number of Participants
- arxiv url: http://arxiv.org/abs/2508.13803v1
- Date: Tue, 19 Aug 2025 13:04:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.925922
- Title: Communication-Efficient Federated Learning with Adaptive Number of Participants
- Title(参考訳): 適応人数によるコミュニケーション効率の良いフェデレーション学習
- Authors: Sergey Skorik, Vladislav Dorofeev, Gleb Molodtsov, Aram Avetisyan, Dmitry Bylinkin, Daniil Medyakov, Aleksandr Beznosikov,
- Abstract要約: Intelligent Selection of Participants (ISP)は、ラウンド毎に最適なクライアント数を動的に決定する適応的なメカニズムである。
最終品質を損なうことなく、一貫したコミュニケーションの節約率を最大30%まで示す。
ISPをさまざまな現実世界のECG分類設定に適用することは、フェデレートラーニングの別のタスクとして、クライアント数の選択を強調した。
- 参考スコア(独自算出の注目度): 40.46069444885658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid scaling of deep learning models has enabled performance gains across domains, yet it introduced several challenges. Federated Learning (FL) has emerged as a promising framework to address these concerns by enabling decentralized training. Nevertheless, communication efficiency remains a key bottleneck in FL, particularly under heterogeneous and dynamic client participation. Existing methods, such as FedAvg and FedProx, or other approaches, including client selection strategies, attempt to mitigate communication costs. However, the problem of choosing the number of clients in a training round remains extremely underexplored. We introduce Intelligent Selection of Participants (ISP), an adaptive mechanism that dynamically determines the optimal number of clients per round to enhance communication efficiency without compromising model accuracy. We validate the effectiveness of ISP across diverse setups, including vision transformers, real-world ECG classification, and training with gradient compression. Our results show consistent communication savings of up to 30\% without losing the final quality. Applying ISP to different real-world ECG classification setups highlighted the selection of the number of clients as a separate task of federated learning.
- Abstract(参考訳): ディープラーニングモデルの迅速なスケーリングにより、ドメイン間でのパフォーマンス向上が可能になったが、いくつかの課題が導入された。
Federated Learning (FL) は、分散トレーニングを可能にすることでこれらの問題に対処するための有望なフレームワークとして登場した。
それでも、通信効率はFLにおいて重要なボトルネックであり、特に異種および動的クライアントの関与の下ではなおである。
FedAvgやFedProxといった既存の手法や、クライアントの選択戦略を含む他のアプローチは、通信コストを軽減しようとします。
しかし、トレーニングラウンドでクライアント数を選択するという問題は、まだ非常に過小評価されている。
モデル精度を損なうことなく通信効率を向上させるために,各ラウンド当たりのクライアント数を動的に決定する適応機構であるIntelligent Selection of Participants(ISP)を導入する。
我々は、視覚変換器、現実世界のECG分類、勾配圧縮によるトレーニングなど、さまざまなセットアップにおけるISPの有効性を検証する。
その結果,最終品質を損なうことなく,通信コストを最大30倍に抑えることができた。
ISPをさまざまな現実世界のECG分類設定に適用することで、フェデレーション学習の別のタスクとして、クライアント数の選択が強調された。
関連論文リスト
- An Adaptive Clustering Scheme for Client Selections in Communication-Efficient Federated Learning [3.683202928838613]
フェデレートラーニング(Federated Learning)は、新たな分散型ラーニングアーキテクチャである。
本稿では,クラスタ数を動的に調整し,最も理想的なグループ化結果を求めることを提案する。
トレーニングに参加するユーザ数を削減し、モデル性能に影響を与えることなく、通信コストを削減できる。
論文 参考訳(メタデータ) (2025-04-11T08:43:12Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Adaptive Client Selection with Personalization for Communication Efficient Federated Learning [2.8484833657472644]
Federated Learning(FL)は、機械学習モデルを協調的にトレーニングするための分散アプローチである。
本稿では, FL環境下でのモデルのトレーニングにおいて, 全体的な通信コストと計算コストを削減できるACSP-FLについて紹介する。
論文 参考訳(メタデータ) (2024-11-26T19:20:59Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Addressing Client Drift in Federated Continual Learning with Adaptive
Optimization [10.303676184878896]
本稿では,NetTailorを連続学習候補として活用することにより,FCL(Federated Continual Learning)を実現するための枠組みを概説する。
適応型フェデレーション最適化は,クライアントドリフトの悪影響を低減し,CIFAR100,MiniImagenet,Deathlonベンチマーク上での有効性を示す。
論文 参考訳(メタデータ) (2022-03-24T20:00:03Z) - Stochastic Client Selection for Federated Learning with Volatile Clients [41.591655430723186]
Federated Learning(FL)は、プライバシ保護機械学習パラダイムである。
同期FLトレーニングの各ラウンドでは、参加できるクライアントはごくわずかである。
本稿では,この問題を解決するためのクライアント選択方式であるE3CSを提案する。
論文 参考訳(メタデータ) (2020-11-17T16:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。