論文の概要: FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.03777v1
- Date: Wed, 04 Jun 2025 09:39:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.270468
- Title: FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning
- Title(参考訳): FedFACT: フェデレートラーニングにおける制御可能なグループフェアネス校正のための予測可能なフレームワーク
- Authors: Li Zhang, Zhongxuan Han, Chaochao chen, Xiaohua Feng, Jiaming Zhang, Yuyuan Li,
- Abstract要約: 我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
複数のデータセットの実験では、FedFACTは精度とグローバルローカルフェアネスのバランスをとる上で、ベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 13.575259448363557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With emerging application of Federated Learning (FL) in decision-making scenarios, it is imperative to regulate model fairness to prevent disparities across sensitive groups (e.g., female, male). Current research predominantly focuses on two concepts of group fairness within FL: Global Fairness (overall model disparity across all clients) and Local Fairness (the disparity within each client). However, the non-decomposable, non-differentiable nature of fairness criteria pose two fundamental, unresolved challenges for fair FL: (i) Harmonizing global and local fairness in multi-class classification; (ii) Enabling a controllable, optimal accuracy-fairness trade-off. To tackle the aforementioned challenges, we propose a novel controllable federated group-fairness calibration framework, named FedFACT. FedFACT identifies the Bayes-optimal classifiers under both global and local fairness constraints in multi-class case, yielding models with minimal performance decline while guaranteeing fairness. To effectively realize an adjustable, optimal accuracy-fairness balance, we derive specific characterizations of the Bayes-optimal fair classifiers for reformulating fair FL as personalized cost-sensitive learning problem for in-processing, and bi-level optimization for post-processing. Theoretically, we provide convergence and generalization guarantees for FedFACT to approach the near-optimal accuracy under given fairness levels. Extensive experiments on multiple datasets across various data heterogeneity demonstrate that FedFACT consistently outperforms baselines in balancing accuracy and global-local fairness.
- Abstract(参考訳): 意思決定シナリオにおけるフェデレートラーニング(FL)の出現に伴い、モデルフェアネスを規制し、センシティブなグループ(例えば、女性、男性)間の格差を防止することが不可欠である。
現在の研究は、FL内のグループフェアネス(Global Fairness)とローカルフェアネス(Local Fairness)の2つの概念に焦点を当てている。
しかし、非分解可能で微分不可能なフェアネス基準の性質は、フェアFLに対して2つの基本的で未解決の課題を生じさせる。
(i)多クラス分類におけるグローバル・ローカル・フェアネスの調和
二 制御可能な最適精度公正トレードオフの実施。
上記の課題に対処するため、FedFACTという新しい制御可能なグループフェアネスキャリブレーションフレームワークを提案する。
FedFACTは、多クラスの場合において、大域的および局所的公正性制約の下でベイズ最適分類器を識別し、公正性を保証すると同時に、最小性能低下のモデルを生成する。
調整可能な最適精度・フェアネスバランスを実現するために,フェアFLを個別化するためのベイズ最適フェア分類器の特性を,インプロセッシングのコスト依存学習問題として,そして後処理のバイレベル最適化として導出する。
理論的には、FedFACTが与えられた公正度レベルの下で最適に近い精度に近づくための収束と一般化の保証を提供する。
さまざまなデータヘテロジニティにわたる複数のデータセットに対する大規模な実験は、FedFACTが精度とグローバルなフェアネスのバランスをとる上で、ベースラインを一貫して上回っていることを示している。
関連論文リスト
- The Cost of Local and Global Fairness in Federated Learning [4.088196820932921]
フェデレートラーニング(FL)における公平性の2つの概念
本稿では,マルチクラスFL設定において,特定のグローバル・ローカル・フェアネスのレベルを達成できない最小限の精度について検討する。
論文 参考訳(メタデータ) (2025-03-27T18:37:54Z) - LoGoFair: Post-Processing for Local and Global Fairness in Federated Learning [20.12470856622916]
本稿では,FLコンテキストにおける局所性とグローバルフェアネス,すなわちLoGoFairを実現するための新しい後処理フレームワークを提案する。
3つの実世界のデータセットの実験結果は、提案したLoGoFairフレームワークの有効性をさらに示している。
論文 参考訳(メタデータ) (2025-03-21T15:33:09Z) - pFedFair: Towards Optimal Group Fairness-Accuracy Trade-off in Heterogeneous Federated Learning [17.879602968559198]
フェデレートされた学習アルゴリズムは、クライアントの集合データに基づいてモデルをトレーニングすることで、クライアントの精度を最大化することを目的としている。
群フェアネス制約は、FL最適化問題の目的関数に組み込むことができる。
このような手法により、不均一なクライアント分布を持つFL設定において、最適な分類精度が得られることを示す。
論文 参考訳(メタデータ) (2025-03-19T06:15:31Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。