論文の概要: FeDABoost: Fairness Aware Federated Learning with Adaptive Boosting
- arxiv url: http://arxiv.org/abs/2510.02914v1
- Date: Fri, 03 Oct 2025 11:36:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.366438
- Title: FeDABoost: Fairness Aware Federated Learning with Adaptive Boosting
- Title(参考訳): FeDABoost: 適応的ブースティングによるフェデレーション学習の公正性
- Authors: Tharuka Kasthuri Arachchige, Veselka Boeva, Shahrooz Abghari,
- Abstract要約: この研究は、非ID設定におけるフェデレートラーニング(FL)の性能と公平性の改善に焦点を当てている。
本稿では,動的ブースティング機構と適応勾配集約戦略を統合した新しいFLフレームワークFeDABoostを提案する。
- 参考スコア(独自算出の注目度): 0.1529342790344802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work focuses on improving the performance and fairness of Federated Learning (FL) in non IID settings by enhancing model aggregation and boosting the training of underperforming clients. We propose FeDABoost, a novel FL framework that integrates a dynamic boosting mechanism and an adaptive gradient aggregation strategy. Inspired by the weighting mechanism of the Multiclass AdaBoost (SAMME) algorithm, our aggregation method assigns higher weights to clients with lower local error rates, thereby promoting more reliable contributions to the global model. In parallel, FeDABoost dynamically boosts underperforming clients by adjusting the focal loss focusing parameter, emphasizing hard to classify examples during local training. We have evaluated FeDABoost on three benchmark datasets MNIST, FEMNIST, and CIFAR10, and compared its performance with those of FedAvg and Ditto. The results show that FeDABoost achieves improved fairness and competitive performance.
- Abstract(参考訳): 本研究は,非ID設定におけるフェデレートラーニング(FL)の性能と公平性を改善することに焦点を当て,モデルアグリゲーションを強化し,性能の低いクライアントのトレーニングを強化する。
本稿では,動的ブースティング機構と適応勾配集約戦略を統合した新しいFLフレームワークFeDABoostを提案する。
本手法は,Multiclass AdaBoost(SAMME)アルゴリズムの重み付け機構に着想を得て,局所誤差率の低いクライアントに対して高い重み付けを割り当て,グローバルモデルへの信頼性の高い寄与を促進する。
並行して、FeDABoostは焦点損失焦点パラメータを調整し、ローカルトレーニング中のサンプルの分類を困難にすることで、パフォーマンスの低いクライアントを動的に強化する。
我々は、MNIST、FEMNIST、CIFAR10の3つのベンチマークデータセット上でFeDABoostを評価し、その性能をFedAvg、Dittoと比較した。
その結果,FeDABoostは公正性と競争性能の向上を実現していることがわかった。
関連論文リスト
- Integrating Asynchronous AdaBoost into Federated Learning: Five Real World Applications [0.0]
提案アルゴリズムは、適応的な通信スケジューリングと遅延重み補償を取り入れ、同期周波数と通信オーバーヘッドを低減する。
これらのイノベーションが、各ドメインにおける通信効率、スケーラビリティ、収束性、堅牢性をどのように改善するかを示します。
全体として、拡張されたAdaBoostは、さまざまなFLシナリオにおける効率性と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-06-10T10:17:15Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - FedAA: A Reinforcement Learning Perspective on Adaptive Aggregation for Fair and Robust Federated Learning [5.622065847054885]
Federated Learning (FL)は、分散デバイス間でのプライバシ保護モデルトレーニングのための有望なアプローチとして登場した。
我々はtextbfAdaptive textbfAggregation を通じてクライアントのコントリビューションを最適化する textbfFedAA という新しい手法を導入し、悪意のあるクライアントに対するモデルロバスト性を高める。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - A Fair Federated Learning Framework With Reinforcement Learning [23.675056844328]
フェデレートラーニング(Federated Learning, FL)は、多くのクライアントが中央サーバの協調の下でモデルを協調的にトレーニングするパラダイムである。
本稿では,クライアントにアグリゲーション重み付けを割り当てるポリシを自動的に学習するPG-FFLという強化学習フレームワークを提案する。
フレームワークの有効性を検証するため、多様なデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2022-05-26T15:10:16Z) - FedGBF: An efficient vertical federated learning framework via gradient
boosting and bagging [14.241194034190304]
我々は、FedGBF(Federated Gradient Boosting Forest)と呼ばれる垂直連合環境における新しいモデルを提案する。
FedGBFは、強化のためのベースラーナとして、決定木を並列に構築することで、ブースティングとバッグングの優先順位を同時に統合する。
また,各森林のパラメータを動的に変化させ,複雑さを低減させる動的FedGBFを提案する。
論文 参考訳(メタデータ) (2022-04-03T03:03:34Z) - Accelerating Federated Learning with a Global Biased Optimiser [16.69005478209394]
Federated Learning(FL)は、クライアントデバイスを離れるトレーニングデータなしでモデルを協調訓練する機械学習の分野における最近の開発である。
本稿では,FedGBO(Federated Global Biased Optimiser)アルゴリズムを用いて,適応最適化手法をFLに適用する手法を提案する。
FedGBOは、FLの局所的なトレーニングフェーズにおいて、グローバルバイアス付きオプティマイザ値のセットを適用することでFLを加速し、非IIDデータからのクライアントドリフトを減少させる。
論文 参考訳(メタデータ) (2021-08-20T12:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。