論文の概要: FedCure: Mitigating Participation Bias in Semi-Asynchronous Federated Learning with Non-IID Data
- arxiv url: http://arxiv.org/abs/2511.10227v1
- Date: Fri, 14 Nov 2025 01:40:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.756248
- Title: FedCure: Mitigating Participation Bias in Semi-Asynchronous Federated Learning with Non-IID Data
- Title(参考訳): FedCure: 半非同期フェデレーション学習における参加バイアスの非IIDデータによる軽減
- Authors: Yue Chen, Jianfeng Lu, Shuqing Cao, Wei Wang, Gang Li, Guanghui Wen,
- Abstract要約: FedCureは、革新的な半非同期フェデレーション学習フレームワークである。
連立構築と参加対応スケジューリングを利用して、非IIDデータによる参加バイアスを軽減する。
最先端の4つのベースラインと比較して、精度は最大5.1倍向上する。
- 参考スコア(独自算出の注目度): 25.502321611335343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While semi-asynchronous federated learning (SAFL) combines the efficiency of synchronous training with the flexibility of asynchronous updates, it inherently suffers from participation bias, which is further exacerbated by non-IID data distributions. More importantly, hierarchical architecture shifts participation from individual clients to client groups, thereby further intensifying this issue. Despite notable advancements in SAFL research, most existing works still focus on conventional cloud-end architectures while largely overlooking the critical impact of non-IID data on scheduling across the cloud-edge-client hierarchy. To tackle these challenges, we propose FedCure, an innovative semi-asynchronous Federated learning framework that leverages coalition construction and participation-aware scheduling to mitigate participation bias with non-IID data. Specifically, FedCure operates through three key rules: (1) a preference rule that optimizes coalition formation by maximizing collective benefits and establishing theoretically stable partitions to reduce non-IID-induced performance degradation; (2) a scheduling rule that integrates the virtual queue technique with Bayesian-estimated coalition dynamics, mitigating efficiency loss while ensuring mean rate stability; and (3) a resource allocation rule that enhances computational efficiency by optimizing client CPU frequencies based on estimated coalition dynamics while satisfying delay requirements. Comprehensive experiments on four real-world datasets demonstrate that FedCure improves accuracy by up to 5.1x compared with four state-of-the-art baselines, while significantly enhancing efficiency with the lowest coefficient of variation 0.0223 for per-round latency and maintaining long-term balance across diverse scenarios.
- Abstract(参考訳): 半非同期フェデレーション学習(SAFL)は同期トレーニングの効率と非同期更新の柔軟性を組み合わせるが、本質的には参加バイアスに悩まされ、非IIDデータ分散によってさらに悪化する。
さらに重要なのは、階層アーキテクチャが個々のクライアントからクライアントグループへの参加をシフトすることで、この問題をさらに強化することです。
SAFL研究の顕著な進歩にもかかわらず、既存のほとんどの研究は、従来型のクラウド・エンド・アーキテクチャに焦点を当てているが、クラウド・エッジ・クライアント・階層をまたいだスケジューリングにおける非IIDデータの重要性を概ね見落としている。
これらの課題に対処するために,連立構築と参加意識スケジューリングを活用して,非IIDデータによる参加バイアスを軽減する,革新的な半非同期フェデレーション学習フレームワークであるFedCureを提案する。
具体的には,(1)集合的利益を最大化し,理論的に安定なパーティションを確立することで,非IIDによる性能劣化を低減することによる連立形成を最適化する選好ルール,(2)ベイズ推定連立動態と仮想キュー技術を統合するスケジューリングルール,平均レート安定性を確保しつつ効率損失を軽減し,(3)遅延要件を満たしつつクライアントCPU周波数を最適化し,計算効率を高めるリソース割り当てルール,の3つの主要なルールを運用している。
4つの実世界のデータセットに関する総合的な実験によると、FedCureは4つの最先端ベースラインと比較して5.1倍の精度向上を実現している。
関連論文リスト
- Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - FedCCL: Federated Clustered Continual Learning Framework for Privacy-focused Energy Forecasting [0.0]
FedCCLは静的な組織特性を持つが、動的クライアント可用性を持つ環境向けに特別に設計されたフレームワークである。
提案手法では,3層モデルトポロジを用いた非同期フェデレート学習プロトコルを実装している。
我々は,FedCCLが分散学習のプライバシ保存に有効なフレームワークを提供し,動的参加者数であっても高い精度と適応性を維持していることを示す。
論文 参考訳(メタデータ) (2025-04-28T21:51:27Z) - Asynchronous Federated Learning: A Scalable Approach for Decentralized Machine Learning [1.2604738912025477]
フェデレートラーニング(FL)は、分散機械学習の強力なパラダイムとして登場した。
従来のFLアプローチは、同期クライアントのアップデートに依存しているため、スケーラビリティと効率の制限に直面することが多い。
本稿では、クライアントが独立して非同期にグローバルモデルを更新できる非同期フェデレートラーニング(AFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-23T17:11:02Z) - Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - AEDFL: Efficient Asynchronous Decentralized Federated Learning with
Heterogeneous Devices [61.66943750584406]
異種環境におけるAEDFL(Asynchronous Efficient Decentralized FL framework)を提案する。
まず、FL収束を改善するための効率的なモデル集約手法を用いた非同期FLシステムモデルを提案する。
次に,より優れた精度を実現するために,動的安定化を考慮したモデル更新手法を提案する。
第3に,通信コストと計算コストを大幅に削減する適応スパース学習法を提案する。
論文 参考訳(メタデータ) (2023-12-18T05:18:17Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。