論文の概要: FedPBS: Proximal-Balanced Scaling Federated Learning Model for Robust Personalized Training for Non-IID Data
- arxiv url: http://arxiv.org/abs/2603.13909v1
- Date: Sat, 14 Mar 2026 11:44:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.480598
- Title: FedPBS: Proximal-Balanced Scaling Federated Learning Model for Robust Personalized Training for Non-IID Data
- Title(参考訳): FedPBS:非IIDデータのためのロバストパーソナライズドトレーニングのための近距離スケーリングフェデレーション学習モデル
- Authors: Eman M. AbouNassara, Amr Elshalla, Sameh Abdulah,
- Abstract要約: フェデレートラーニング(FL)は、分散クライアントのセットで、機械学習モデルを共同でトレーニングすることを可能にする。
我々はこれらの課題に対処するために、FedBSとFedProxの相補的なアイデアを結合するFLアルゴリズムであるFedPBSを提案する。
- 参考スコア(独自算出の注目度): 0.2840208039211775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables a set of distributed clients to jointly train machine learning models while preserving their local data privacy, making it attractive for applications in healthcare, finance, mobility, and smart-city systems. However, FL faces several challenges, including statistical heterogeneity and uneven client participation, which can degrade convergence and model quality. In this work, we propose FedPBS, an FL algorithm that couples complementary ideas from FedBS and FedProx to address these challenges. FedPBS dynamically adapts batch sizes to client resources to support balanced and scalable participation, and selectively applies a proximal correction to small-batch clients to stabilize local updates and reduce divergence from the global model. Experiments on benchmarking datasets such as CIFAR-10 and UCI-HAR under highly non-IID settings demonstrate that FedPBS consistently outperforms state-of-the-art methods, including FedBS, FedGA, MOON, and FedProx. The results demonstrate robust performance gains under extreme data heterogeneity, with smooth loss curves indicating stable convergence across diverse federated environments. FedPBS consistently outperforms state-of-the-art federated learning baselines on UCI-HAR and CIFAR-10 under severe non-IID conditions while maintaining stable and reliable convergence.
- Abstract(参考訳): フェデレーション・ラーニング(FL)は、分散クライアントのセットが、ローカルデータのプライバシを保持しながら、機械学習モデルを共同でトレーニングすることを可能にし、医療、金融、モビリティ、スマートシティシステムにおけるアプリケーションにとって魅力的なものとなる。
しかしFLは、統計的不均一性や不均一なクライアント参加など、収束性やモデル品質を低下させるいくつかの課題に直面している。
本稿では,これらの課題に対処するために,FedBSとFedProxの相補的なアイデアを結合したFLアルゴリズムであるFedPBSを提案する。
FedPBSは、バッチサイズを動的にクライアントリソースに適応させ、バランスの取れたスケーラブルな参加をサポートし、局所的な更新を安定化し、グローバルモデルからのばらつきを低減するために、小さなバッチクライアントに近位修正を選択的に適用する。
CIFAR-10やUCI-HARなどのベンチマークデータセットを非IID設定で実験した結果、FedPBSはFedBS、FedGA、MOON、FedProxといった最先端の手法を一貫して上回っている。
その結果, 各種フェデレート環境における安定収束性を示すスムーズな損失曲線が得られた。
FedPBSは、不安定で信頼性の高い収束を維持しながら、厳しい非IID条件下で、UCI-HARとCIFAR-10の最先端の学習ベースラインを一貫して上回っている。
関連論文リスト
- Fractional-Order Federated Learning [4.1751058176413105]
フェデレートラーニング(FL)は、リモートクライアントがクライアントのプライバシを保護しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
プライバシー保護のメリットにもかかわらず、FLには、収束の遅い、通信コストの高い、非独立性および独立性のない(非IID)データなど、大きな欠点がある。
論文 参考訳(メタデータ) (2026-02-17T06:25:23Z) - Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - FedFiTS: Fitness-Selected, Slotted Client Scheduling for Trustworthy Federated Learning in Healthcare AI [33.17279604575767]
フェデレートラーニング(FL)は、プライバシ保護モデルトレーニングの強力なパラダイムとして登場したが、医療などのセンシティブなドメインへのデプロイは、永続的な課題に直面している。
本稿では、フィットネスベースのクライアント選挙とアダプティブアグリゲーションを組み合わせることで、FedFaStラインを前進させる信頼度の高い選択的FLTSであるFedFiTSを紹介する。
論文 参考訳(メタデータ) (2025-09-23T15:06:04Z) - FedWSQ: Efficient Federated Learning with Weight Standardization and Distribution-Aware Non-Uniform Quantization [4.487640233047808]
フェデレートラーニング(FL)は、データ不均一性や通信制約といった重要な課題により、しばしばパフォーマンス劣化に悩まされる。
We present a novel FL framework called FedWSQ, which integrates weight standardization (WS) and the proposed distribution-aware non-uniform Quantization (DANUQ)。
論文 参考訳(メタデータ) (2025-06-30T04:46:25Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。