論文の概要: pFedFair: Towards Optimal Group Fairness-Accuracy Trade-off in Heterogeneous Federated Learning
- arxiv url: http://arxiv.org/abs/2503.14925v1
- Date: Wed, 19 Mar 2025 06:15:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:22:48.412509
- Title: pFedFair: Towards Optimal Group Fairness-Accuracy Trade-off in Heterogeneous Federated Learning
- Title(参考訳): pFedFair:不均一なフェデレーション学習における最適グループフェアネス-精度トレードオフを目指して
- Authors: Haoyu Lei, Shizhan Gong, Qi Dou, Farzan Farnia,
- Abstract要約: フェデレートされた学習アルゴリズムは、クライアントの集合データに基づいてモデルをトレーニングすることで、クライアントの精度を最大化することを目的としている。
群フェアネス制約は、FL最適化問題の目的関数に組み込むことができる。
このような手法により、不均一なクライアント分布を持つFL設定において、最適な分類精度が得られることを示す。
- 参考スコア(独自算出の注目度): 17.879602968559198
- License:
- Abstract: Federated learning (FL) algorithms commonly aim to maximize clients' accuracy by training a model on their collective data. However, in several FL applications, the model's decisions should meet a group fairness constraint to be independent of sensitive attributes such as gender or race. While such group fairness constraints can be incorporated into the objective function of the FL optimization problem, in this work, we show that such an approach would lead to suboptimal classification accuracy in an FL setting with heterogeneous client distributions. To achieve an optimal accuracy-group fairness trade-off, we propose the Personalized Federated Learning for Client-Level Group Fairness (pFedFair) framework, where clients locally impose their fairness constraints over the distributed training process. Leveraging the image embedding models, we extend the application of pFedFair to computer vision settings, where we numerically show that pFedFair achieves an optimal group fairness-accuracy trade-off in heterogeneous FL settings. We present the results of several numerical experiments on benchmark and synthetic datasets, which highlight the suboptimality of non-personalized FL algorithms and the improvements made by the pFedFair method.
- Abstract(参考訳): フェデレートラーニング(FL)アルゴリズムは、一般的に、クライアントの集合データに基づいてモデルをトレーニングすることで、クライアントの精度を最大化することを目的としている。
しかし、いくつかのFLアプリケーションでは、モデルの判断は、性別や人種のようなセンシティブな属性に依存しないグループフェアネスの制約を満たすべきである。
このようなグループフェアネスの制約は、FL最適化問題の目的関数に組み込むことができるが、本研究では、不均一なクライアント分布を持つFL設定において、そのようなアプローチが最適以下の分類精度をもたらすことを示す。
pFedFair(Personalized Federated Learning for Client-Level Group Fairness)フレームワークを提案する。
画像埋め込みモデルを利用して、pFedFairの応用をコンピュータビジョン設定に拡張し、不均一なFL設定において、pFedFairが最適なグループフェアネスのトレードオフを達成することを数値的に示す。
pFedFair法における非個人化FLアルゴリズムの準最適性と改善点を明らかにするため,ベンチマークおよび合成データセットに関する数値実験を行った。
関連論文リスト
- Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - A Post-Processing-Based Fair Federated Learning Framework [8.978878439498365]
Federated Learning(FL)は、中央サーバでローカルデータセットをプールすることなく、分散パーティ間で協調的なモデルトレーニングを可能にする。
FLシステムにおけるグループフェアネスを改善するために、単純で直感的な後処理ベースのフレームワークを定義し、実証的に分析する。
我々の研究は、このフレームワークがFLにおける公正性の実装を単純化するだけでなく、精度の低下や精度の向上を最小限に抑えながら、大幅な公正性の向上をもたらすことを示している。
論文 参考訳(メタデータ) (2025-01-25T20:05:27Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Enhancing Group Fairness in Federated Learning through Personalization [15.367801388932145]
パーソナライゼーションは、意図しない利益として、改善された(局所的な)公正性をもたらす可能性があることを示す。
本稿では,Fair-FCAとFair-FL+HCという2つの新しいフェアネス対応クラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-27T19:55:18Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Fair and Consistent Federated Learning [48.19977689926562]
フェデレートラーニング(FL)は、分散データソースから学習する能力に対する関心が高まっている。
本稿では,異なるローカルクライアント間で性能整合性とアルゴリズムフェアネスを協調的に検討するFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T01:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。