論文の概要: FedFiTS: Fitness-Selected, Slotted Client Scheduling for Trustworthy Federated Learning in Healthcare AI
- arxiv url: http://arxiv.org/abs/2509.19120v1
- Date: Tue, 23 Sep 2025 15:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.917187
- Title: FedFiTS: Fitness-Selected, Slotted Client Scheduling for Trustworthy Federated Learning in Healthcare AI
- Title(参考訳): FedFiTS: 医療AIにおける信頼できるフェデレーション学習のための、フィットネス選択された、スロットトされたクライアントスケジューリング
- Authors: Ferdinand Kahenga, Antoine Bagula, Sajal K. Das, Patrick Sello,
- Abstract要約: フェデレートラーニング(FL)は、プライバシ保護モデルトレーニングの強力なパラダイムとして登場したが、医療などのセンシティブなドメインへのデプロイは、永続的な課題に直面している。
本稿では、フィットネスベースのクライアント選挙とアダプティブアグリゲーションを組み合わせることで、FedFaStラインを前進させる信頼度の高い選択的FLTSであるFedFiTSを紹介する。
- 参考スコア(独自算出の注目度): 33.17279604575767
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated Learning (FL) has emerged as a powerful paradigm for privacy-preserving model training, yet deployments in sensitive domains such as healthcare face persistent challenges from non-IID data, client unreliability, and adversarial manipulation. This paper introduces FedFiTS, a trust and fairness-aware selective FL framework that advances the FedFaSt line by combining fitness-based client election with slotted aggregation. FedFiTS implements a three-phase participation strategy-free-for-all training, natural selection, and slotted team participation-augmented with dynamic client scoring, adaptive thresholding, and cohort-based scheduling to balance convergence efficiency with robustness. A theoretical convergence analysis establishes bounds for both convex and non-convex objectives under standard assumptions, while a communication-complexity analysis shows reductions relative to FedAvg and other baselines. Experiments on diverse datasets-medical imaging (X-ray pneumonia), vision benchmarks (MNIST, FMNIST), and tabular agricultural data (Crop Recommendation)-demonstrate that FedFiTS consistently outperforms FedAvg, FedRand, and FedPow in accuracy, time-to-target, and resilience to poisoning attacks. By integrating trust-aware aggregation with fairness-oriented client selection, FedFiTS advances scalable and secure FL, making it well suited for real-world healthcare and cross-domain deployments.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシ保護モデルトレーニングの強力なパラダイムとして現れていますが、医療などの機密分野へのデプロイは、非IIDデータやクライアントの不確実性、敵の操作といった、永続的な課題に直面しています。
本稿では、フィットネスベースのクライアント選挙とスロットアグリゲーションを組み合わせることで、FedFaStラインを前進させる信頼と公正を意識したFLフレームワークであるFedFiTSを紹介する。
FedFiTSは、動的クライアントスコアリング、適応しきい値設定、コホートベースのスケジューリングで強化された3段階の参加戦略フリーのトレーニング、自然選択、スロットされたチーム参加を実装し、収束効率と堅牢性をバランスさせる。
理論的収束解析は、標準的な仮定の下で凸目標と非凸目標の両方の境界を定め、一方、通信複雑度解析は、FedAvgや他のベースラインと比較して減少を示す。
さまざまなデータセット・メディカル・イメージング(X線肺炎)、ビジョン・ベンチマーク(MNIST、FMNIST)、表型農業データ(Crop Recommendation)-デーモンストレートの実験では、FedFiTSはFedAvg、FedRand、FedPowを精度、時間-ターゲット、中毒攻撃に対するレジリエンスで一貫して上回っている。
信頼を意識したアグリゲーションと公正性指向のクライアント選択を統合することで、FedFiTSはスケーラブルでセキュアなFLを推進し、現実のヘルスケアやクロスドメインデプロイメントに適しています。
関連論文リスト
- A Comparative Benchmark of Federated Learning Strategies for Mortality Prediction on Heterogeneous and Imbalanced Clinical Data [0.0]
フェデレートラーニング(FL)は、プライバシ保護ソリューションを提供するが、その非独立性とIdentically Distributed(非IID)と不均衡な条件下でのパフォーマンスには調査が必要である。
本研究では,FedAvg,FedProx,FedAdagrad,FedAdam,FedClusterの5つのフェデレーション学習戦略の比較ベンチマークを行った。
この結果から,FedProxのような正規化に基づくFLアルゴリズムは,不均一かつ不均衡な臨床予測タスクに対して,より堅牢で効果的なソリューションを提供することがわかった。
論文 参考訳(メタデータ) (2025-09-03T11:32:57Z) - FedGreed: A Byzantine-Robust Loss-Based Aggregation Method for Federated Learning [1.3853653640712935]
フェデレートラーニング(FL)は、デバイス上のローカルデータセットを保持することで、データのプライバシを保ちながら、複数のクライアント間で協調的なモデルトレーニングを可能にする。
本研究では,クライアントがビザンツ攻撃を行い,クライアントが逆さまに振る舞うようなFL設定に対処する一方,中央サーバは信頼され,参照データセットが装備される。
本稿では,フェデレート学習のためのレジリエントアグリゲーション戦略であるFedGreedを提案する。
論文 参考訳(メタデータ) (2025-08-25T14:20:19Z) - Toward Fair Federated Learning under Demographic Disparities and Data Imbalance [8.444310568786408]
フェデレートラーニング(Federated Learning, FL)は、機関間のプライバシー保護コラボレーションを可能にする。
フェアネスを意識した正規化とグループ条件オーバサンプリングを組み合わせたフレームワークに依存しないFedIDAを提案する。
FedIDAは、競争力のある予測性能を維持しながら、常に公正性を向上することを示す。
論文 参考訳(メタデータ) (2025-05-14T11:22:54Z) - Byzantine-Robust Federated Learning Using Generative Adversarial Networks [1.4091801425319963]
フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にするが、その堅牢性は、データやモデル中毒といったビザンチンの行動によって脅かされている。
本稿では,クライアントの更新を検証するための代表データを生成するために,サーバ上の条件付き生成逆ネットワーク(cGAN)を活用することで,これらの課題に対処する防衛フレームワークを提案する。
このアプローチは、外部データセットへの依存を排除し、多様な攻撃戦略に適応し、標準FLにシームレスに統合する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。