論文の概要: When the Server Steps In: Calibrated Updates for Fair Federated Learning
- arxiv url: http://arxiv.org/abs/2601.05352v1
- Date: Thu, 08 Jan 2026 20:06:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.756558
- Title: When the Server Steps In: Calibrated Updates for Fair Federated Learning
- Title(参考訳): サーバがステップインする: 公正なフェデレーション学習のためのキャリブレーション更新
- Authors: Tianrun Yu, Kaixiang Zhao, Cheng Zhang, Anjun Gao, Yueyang Quan, Zhuqing Liu, Minghong Fang,
- Abstract要約: フェデレートラーニング(FL)は、変革的な分散ラーニングパラダイムとして登場した。
多様な人口集団の公平性を確保するという課題に直面している。
EquFLは,FLシステムのバイアスを考慮に入れたサーバサイドのデバイアス化手法である。
- 参考スコア(独自算出の注目度): 11.66785172006766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as a transformative distributed learning paradigm, enabling multiple clients to collaboratively train a global model under the coordination of a central server without sharing their raw training data. While FL offers notable advantages, it faces critical challenges in ensuring fairness across diverse demographic groups. To address these fairness concerns, various fairness-aware debiasing methods have been proposed. However, many of these approaches either require modifications to clients' training protocols or lack flexibility in their aggregation strategies. In this work, we address these limitations by introducing EquFL, a novel server-side debiasing method designed to mitigate bias in FL systems. EquFL operates by allowing the server to generate a single calibrated update after receiving model updates from the clients. This calibrated update is then integrated with the aggregated client updates to produce an adjusted global model that reduces bias. Theoretically, we establish that EquFL converges to the optimal global model achieved by FedAvg and effectively reduces fairness loss over training rounds. Empirically, we demonstrate that EquFL significantly mitigates bias within the system, showcasing its practical effectiveness.
- Abstract(参考訳): フェデレートラーニング(FL)は、トランスフォーメーションな分散学習パラダイムとして登場し、複数のクライアントが、生のトレーニングデータを共有することなく、中央サーバの調整の下でグローバルモデルを協調的にトレーニングすることが可能になった。
FLには顕著な利点があるが、多様な人口集団の公平性を確保する上で重要な課題に直面している。
これらの公平性に対処するために、様々な公平性に配慮したデバイアス法が提案されている。
しかしながら、これらのアプローチの多くは、クライアントのトレーニングプロトコルの変更を必要とするか、あるいはアグリゲーション戦略に柔軟性がないかのどちらかです。
本研究では,FLシステムのバイアス軽減を目的としたサーバサイドデバイアス法であるEquFLを導入することで,これらの制約に対処する。
EquFLは、クライアントからモデル更新を受けた後、サーバが単一のキャリブレーションされた更新を生成できるようにする。
このキャリブレーションされた更新は、集約されたクライアント更新と統合され、バイアスを減らすように調整されたグローバルモデルを生成する。
理論的には、EquFLはFedAvgが達成した最適なグローバルモデルに収束し、トレーニングラウンドにおける公正損失を効果的に低減する。
実験により,EquFLはシステム内のバイアスを著しく軽減し,実用性を示す。
関連論文リスト
- FedDPC : Handling Data Heterogeneity and Partial Client Participation in Federated Learning [0.0]
FedDPCはFLトレーニングとグローバルモデル性能を改善するために設計された新しいFL手法である。
我々は,FedDPCが,訓練損失の低減と通信ラウンド間のテスト精度の向上を達成し,最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-12-23T12:57:27Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Adaptive Self-Distillation for Minimizing Client Drift in Heterogeneous
Federated Learning [9.975023463908496]
Federated Learning(FL)は、クライアントがローカルトレーニングデータを共有せずに、局所的にトレーニングされたモデルを集約することで、グローバルモデルの共同トレーニングを可能にする機械学習パラダイムである。
本稿では,適応自己蒸留(ASD)に基づく新たな正規化手法を提案する。
我々の正規化方式は,グローバルモデルエントロピーとクライアントのラベル分布に基づいて,クライアントのトレーニングデータに適応的に適応的に適応する。
論文 参考訳(メタデータ) (2023-05-31T07:00:42Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - Over-The-Air Federated Learning under Byzantine Attacks [43.67333971183711]
フェデレートラーニング(FL)は多くのAIアプリケーションを実現するための有望なソリューションである。
FLは、クライアントがローカルデータを共有せずに、中央サーバが管理するトレーニングフェーズに参加することを可能にする。
FLの主な課題の1つは、通信オーバーヘッドである。
本稿では,このような攻撃の効果を低減するための送信・集約フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-05T22:09:21Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。