論文の概要: FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.03777v2
- Date: Fri, 07 Nov 2025 18:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.48977
- Title: FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning
- Title(参考訳): FedFACT: フェデレートラーニングにおける制御可能なグループフェアネス校正のための予測可能なフレームワーク
- Authors: Li Zhang, Zhongxuan Han, Xiaohua Feng, Jiaming Zhang, Yuyuan Li, Chaochao Chen,
- Abstract要約: 我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
我々は,FedFACTが精度とグローバル・ローカル・フェアネスのバランスをとる上で,ベースラインを一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 23.38141950440522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the emerging application of Federated Learning (FL) in decision-making scenarios, it is imperative to regulate model fairness to prevent disparities across sensitive groups (e.g., female, male). Current research predominantly focuses on two concepts of group fairness within FL: Global Fairness (overall model disparity across all clients) and Local Fairness (the disparity within each client). However, the non-decomposable, non-differentiable nature of fairness criteria poses two fundamental, unresolved challenges for fair FL: (i) Harmonizing global and local fairness, especially in multi-class setting; (ii) Enabling a controllable, optimal accuracy-fairness trade-off. To tackle these challenges, we propose a novel controllable federated group-fairness calibration framework, named FedFACT. FedFACT identifies the Bayes-optimal classifiers under both global and local fairness constraints, yielding models with minimal performance decline while guaranteeing fairness. Building on the characterization of the optimal fair classifiers, we reformulate fair federated learning as a personalized cost-sensitive learning problem for in-processing and a bi-level optimization for post-processing. Theoretically, we provide convergence and generalization guarantees for FedFACT to approach the near-optimal accuracy under given fairness levels. Extensive experiments on multiple datasets across various data heterogeneity demonstrate that FedFACT consistently outperforms baselines in balancing accuracy and global-local fairness.
- Abstract(参考訳): 意思決定シナリオにおけるフェデレートラーニング(FL)の新たな適用により、モデルフェアネスを規制し、センシティブなグループ(例えば、女性、男性)間の格差を防止することが不可欠である。
現在の研究は、FL内のグループフェアネス(Global Fairness)とローカルフェアネス(Local Fairness)の2つの概念に焦点を当てている。
しかし、非分解可能で微分不可能なフェアネス基準の性質は、フェアFLに対して2つの基本的で未解決の課題を生じさせる。
一 グローバル・ローカル・フェアネス、特にマルチクラス・セッティングにおいて調和すること
二 制御可能な最適精度公正トレードオフの実施。
これらの課題に対処するために、FedFACTという新しい制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、グローバルフェアネスとローカルフェアネスの両方の制約の下でベイズ最適分類器を特定し、フェアネスを保証しながら最小性能低下のモデルを生成する。
最適な公平な分類器の特徴づけに基づいて、我々は、公正なフェデレーション学習を、インプロセッシングのためのパーソナライズされたコスト依存学習問題と、ポストプロセッシングのためのバイレベル最適化として再構成する。
理論的には、FedFACTが与えられた公正度レベルの下で最適に近い精度に近づくための収束と一般化の保証を提供する。
さまざまなデータヘテロジニティにわたる複数のデータセットに対する大規模な実験は、FedFACTが精度とグローバルなフェアネスのバランスをとる上で、ベースラインを一貫して上回っていることを示している。
関連論文リスト
- The Cost of Local and Global Fairness in Federated Learning [4.088196820932921]
フェデレートラーニング(FL)における公平性の2つの概念
本稿では,マルチクラスFL設定において,特定のグローバル・ローカル・フェアネスのレベルを達成できない最小限の精度について検討する。
論文 参考訳(メタデータ) (2025-03-27T18:37:54Z) - LoGoFair: Post-Processing for Local and Global Fairness in Federated Learning [20.12470856622916]
本稿では,FLコンテキストにおける局所性とグローバルフェアネス,すなわちLoGoFairを実現するための新しい後処理フレームワークを提案する。
3つの実世界のデータセットの実験結果は、提案したLoGoFairフレームワークの有効性をさらに示している。
論文 参考訳(メタデータ) (2025-03-21T15:33:09Z) - pFedFair: Towards Optimal Group Fairness-Accuracy Trade-off in Heterogeneous Federated Learning [17.879602968559198]
フェデレートされた学習アルゴリズムは、クライアントの集合データに基づいてモデルをトレーニングすることで、クライアントの精度を最大化することを目的としている。
群フェアネス制約は、FL最適化問題の目的関数に組み込むことができる。
このような手法により、不均一なクライアント分布を持つFL設定において、最適な分類精度が得られることを示す。
論文 参考訳(メタデータ) (2025-03-19T06:15:31Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。